JP2017009769A - Imaging device, focus control device and imaging method - Google Patents
Imaging device, focus control device and imaging method Download PDFInfo
- Publication number
- JP2017009769A JP2017009769A JP2015124361A JP2015124361A JP2017009769A JP 2017009769 A JP2017009769 A JP 2017009769A JP 2015124361 A JP2015124361 A JP 2015124361A JP 2015124361 A JP2015124361 A JP 2015124361A JP 2017009769 A JP2017009769 A JP 2017009769A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- subject information
- information
- focus
- contrast
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
Abstract
【課題】コントラスト信号レベルのピークが検出し難い暗所や色が均一の被写体に対してフォーカスレンズを合焦するには時間が掛かっていた。【解決手段】フォーカスレンズを駆動する駆動部と、フォーカスレンズを通じて結像された光学像を撮像して撮像信号を出力する撮像部と、撮像された被写体が合焦している場合における被写体の被写体距離および撮像領域における第1の特徴量が紐づけられた被写体情報を、ズームレンズの倍率毎に記憶する記憶部と、撮影している被写体が合焦出来ないと判断された場合には、撮影している撮像領域における第2の特徴量を取得するとともに、被写体情報のうち撮影している倍率における被写体情報の第1の特徴量と第2の特徴量との類似度を求め、類似度が最大となる第1の特徴量を有する被写体情報を選出する制御部と、を有し、駆動部は、選出された被写体情報が有する被写体距離に基づいて、被写体が合焦状態となるように前記フォーカスレンズを移動させることを特徴とする。【選択図】図13It takes time to focus a focus lens on a dark place where a peak of a contrast signal level is difficult to detect or a subject with a uniform color. A driving unit that drives a focus lens, an imaging unit that captures an optical image formed through the focus lens and outputs an imaging signal, and a subject of the subject when the captured subject is in focus When it is determined that the subject information associated with the distance and the first feature amount in the imaging region is stored for each zoom lens magnification and the subject being photographed cannot be focused, The second feature amount in the imaging area being acquired is obtained, and the similarity between the first feature amount and the second feature amount of the subject information at the magnification of the subject information is obtained. A control unit that selects subject information having the first characteristic amount that is the maximum, and the driving unit is configured to make the subject in a focused state based on the subject distance of the selected subject information. Four It is characterized by moving the slack lens. [Selection] Figure 13
Description
本発明は、被写体に対してオートフォーカス制御を行うフォーカス制御装置、撮像装置及びフォーカス制御方法に関する。 The present invention relates to a focus control apparatus, an imaging apparatus, and a focus control method that perform autofocus control on a subject.
従来、監視カメラやDVD(Digital Versatile Disc)カメラ等のビデオレコーダ付きの多くの撮像装置には、レンズのフォーカスを自動調整するAF(Auto Focus)機能が搭載されている。このようなAF機能における合焦方式として、撮影映像のコントラスト信号の振幅が最大値になる位置を合焦状態であるとしてフォーカスの調整を行う、コントラスト方式がある。 Conventionally, many imaging apparatuses with a video recorder such as a surveillance camera and a DVD (Digital Versatile Disc) camera are equipped with an AF (Auto Focus) function for automatically adjusting the focus of a lens. As a focusing method in such an AF function, there is a contrast method in which the focus is adjusted by assuming that the position where the amplitude of the contrast signal of the captured image is the maximum value is the in-focus state.
撮像装置においては、フォーカスレンズをその光軸方向に移動させることによって、撮影映像が非合焦状態又は合焦状態となるが、これに伴ってコントラスト信号の振幅も変化する。よって、基本的なコントラスト方式では、フォーカスレンズをその光軸方向に移動させ、移動前後のコントラスト信号の振幅の大小に基づいて合焦する方向を検出し、その方向にフォーカスレンズを移動させて合焦を行っている。以下の説明では、AF機能に従ってフォーカスレンズを合焦させる制御を「AF制御」と呼ぶ。また、AF制御によってフォーカスレンズが移動していたり、AF機能を実行するために処理を行っていたりする状態を「AF動作」と呼ぶ。一方、AF機能の実行中であるがフォーカスレンズの移動を停止している状態を「AF待機」と呼ぶ。 In the imaging apparatus, the captured image is brought into an out-of-focus state or in-focus state by moving the focus lens in the optical axis direction, and the amplitude of the contrast signal also changes accordingly. Therefore, in the basic contrast method, the focus lens is moved in the optical axis direction, the focus direction is detected based on the amplitude of the contrast signal before and after the movement, and the focus lens is moved in that direction. I'm singing. In the following description, the control for focusing the focus lens according to the AF function is referred to as “AF control”. A state in which the focus lens is moved by AF control or processing is performed to execute the AF function is referred to as “AF operation”. On the other hand, the state in which the AF function is being executed but the movement of the focus lens is stopped is called “AF standby”.
ところで、このコントラスト方式で注目するコントラストの強弱は被写体に依存する。ここで、図15と図15を参照して低コントラスト被写体を撮像するときの様子を説明する。 By the way, the contrast strength to be noticed in this contrast method depends on the subject. Here, with reference to FIG. 15 and FIG. 15, a state when imaging a low-contrast subject will be described.
図15は、夜間に従来の撮像装置が撮像領域内で撮像する被写体の例を示す。この撮像領域は、撮像装置に接続された表示装置の出力画面の大きさとほぼ同じである。 FIG. 15 shows an example of a subject that is imaged in the imaging region by a conventional imaging device at night. This imaging area is substantially the same as the size of the output screen of the display device connected to the imaging device.
図16は、撮像装置が低コントラスト被写体102を撮像するときに検波したコントラスト信号を示す。 FIG. 16 shows a contrast signal detected when the imaging apparatus images the low contrast subject 102.
従来の撮像装置は、撮像領域100の中心付近にある検波領域101の内側で低コントラスト被写体102(例えば、タワー型の建築物)のコントラスト信号を検波する。しかし、夜間には低コントラスト被写体102自体が暗く、背景も黒であるため、低コントラスト被写体102の輪郭が背景に溶け込んでしまう。
The conventional imaging apparatus detects the contrast signal of the low-contrast subject 102 (for example, a tower type building) inside the
図16に示すように低コントラスト被写体102の鮮鋭度の度合いを表すコントラスト信号レベルの形がなだらかであり、撮像装置がフォーカスレンズを光軸方向に移動させてもコントラスト信号レベルのピークとなる合焦点を見つけにくい。このため、フォーカスレンズがハンチングを起こしたり、合焦しないままAFが停止したりすることがあった。 As shown in FIG. 16, the shape of the contrast signal level representing the degree of sharpness of the low-contrast subject 102 is gentle, and the in-focus point at which the peak of the contrast signal level is obtained even when the imaging device moves the focus lens in the optical axis direction. Hard to find. For this reason, the focus lens may cause hunting, or AF may stop without focusing.
このような理由から、AF機能にコントラスト方式を使用している監視カメラにおいては、色が均一な建物の壁や空には合焦させ難く、特に暗所においては、図16に示したような合焦点が見つからないといった不具合が生じ易い。従って、低コントラストの被写体を撮影する際は、ハンチングを抑え、さらには、合焦点付近まで速やかにフォーカスレンズを移動させたいという要望があった。 For this reason, in a surveillance camera using a contrast method for the AF function, it is difficult to focus on a building wall or sky with uniform colors, especially in a dark place as shown in FIG. Problems such as the infocus cannot be found are likely to occur. Therefore, when photographing a low-contrast subject, there has been a demand to suppress hunting and to quickly move the focus lens to near the in-focus point.
特許文献1には、現在撮影している被写体が測距可能であった場合、次回以降のAF動作の際に使用する撮影距離最頻値を計算するための過去の合焦位置として、現在撮影している被写体までの距離を倍率ごとに一定数不揮発性のメモリ内に格納する。現在撮影している被写体が測距不可能であった場合、その倍率に応じた撮影距離最頻値を格納されている被写体までの距離の平均値より求め、その平均値の距離へと合焦するようフォーカスレンズを動かす。
In
このような制御方式では、同じ倍率でも位置情報が大きく異なる被写体を撮影する環境では、撮影距離最頻値はその平均値であるから、フォーカスレンズが合焦点からは遠い位置にて停止することも十分に考えられる。すなわち、合焦させたい距離と参照する値の距離が乖離しやすくなる。この値の乖離を防ぐためには記録された被写体情報より、現在の被写体と相関のある情報を用いて合焦を図る必要がある。 In such a control method, in an environment where subjects with significantly different position information are photographed even at the same magnification, the focus distance mode is the average value, so the focus lens may stop at a position far from the focal point. Think enough. That is, the distance to be focused and the distance of the reference value are likely to deviate. In order to prevent this difference in value, it is necessary to focus using information correlated with the current subject rather than the recorded subject information.
本発明は以上の点を考慮してなされたものであり、低コントラストの被写体に対して適切なフォーカス制御を行うことを目的とする。 The present invention has been made in consideration of the above points, and an object thereof is to perform appropriate focus control on a low-contrast subject.
上記課題を解決するために、本発明は、フォーカスレンズを駆動する駆動部と、フォーカスレンズを通じて結像された光学像を撮像して撮像信号を出力する撮像部と、撮像された被写体が合焦している場合における被写体の被写体距離および撮像領域における第1の特徴量が紐づけられた被写体情報を、ズームレンズの倍率毎に記憶する記憶部と、撮影している被写体が合焦出来ないと判断された場合には、撮影している撮像領域における第2の特徴量を取得するとともに、被写体情報のうち撮影している倍率における被写体情報の第1の特徴量と第2の特徴量との類似度を求め、類似度が最大となる第1の特徴量を有する被写体情報を選出する制御部と、を有し、駆動部は、選出された被写体情報が有する被写体距離に基づいて、被写体が合焦状態となるように前記フォーカスレンズを移動させることを特徴とする。 In order to solve the above problems, the present invention provides a driving unit that drives a focus lens, an imaging unit that captures an optical image formed through the focus lens and outputs an imaging signal, and the captured subject is in focus. A storage unit that stores subject information associated with the subject distance of the subject and the first feature amount in the imaging region for each magnification of the zoom lens, and the subject being photographed cannot be focused. If it is determined, the second feature amount in the imaging region being photographed is acquired, and the first feature amount and the second feature amount of the subject information at the photographing magnification among the subject information are obtained. A control unit that obtains similarity and selects subject information having the first feature amount that maximizes the similarity, and the driving unit determines whether the subject is based on the subject distance included in the selected subject information. In focus The focus lens is moved so as to be in a state.
本発明によれば、低コントラストの被写体に対して適切なフォーカス制御を行うことができる。 According to the present invention, appropriate focus control can be performed on a low-contrast subject.
上記した以外の課題、構成及び効果は、以下の実施の形態例の説明により明らかにされる。 Problems, configurations, and effects other than those described above will be clarified by the following description of embodiments.
以下、本発明の一実施の形態例に係る撮像装置及びフォーカス制御装置について、添付図面を参照して説明する。 Hereinafter, an imaging device and a focus control device according to an embodiment of the present invention will be described with reference to the accompanying drawings.
本明細書及び図面において、実質的に同一の機能又は構成を有する構成要素については、同一の符号を付することにより重複する説明を省略する。 In the present specification and drawings, components having substantially the same function or configuration are denoted by the same reference numerals, and redundant description is omitted.
[(1)本実施の形態に係る撮像装置の構成]
図1は、本実施形態に係る撮像装置1の全体構成を示すブロック図である。
[(1) Configuration of Imaging Device According to this Embodiment]
FIG. 1 is a block diagram illustrating an overall configuration of an
撮像装置1は、レンズユニット2、撮像素子8、ノイズ除去回路9、自動利得制御回路(AGC:Auto Gain Controller)10、アナログ/ディジタル変換回路(A/D)11及びオートフォーカス制御装置12を備える。また、撮像装置1は、モータドライバ回路41〜43、電子シャッタ47を備える。撮像装置1は、例えば監視カメラとして用いられるが、個人用のカメラとして用いられたり、携帯端末に内蔵されて用いられたりもする。図1では、自動利得制御回路10をAGCと記載し、アナログ/ディジタル変換回路11をA/Dと記載している。
The
レンズユニット2は、被写体から受光した光束の変倍を行うことでズーム倍率を調節するバリエータレンズ群3、受光光量を調整するための絞り4及びピント調節機能を有するフォーカスレンズ群5(フォーカスレンズの一例)を備える。レンズユニット2は、被写体の光学像をCCD(Charge Coupled Device)等を用いて構成される撮像素子8の受光面に結像する。
The
また、レンズユニット2は、例えばフォトインタラプタ等から構成されるレンズ原点検出器6及び温度検出器7を備える。レンズ原点検出器6は、バリエータレンズ群3及びフォーカスレンズ群5の絶対位置(基準位置)を検出し、検出結果をレンズ絶対位置情報として制御部30、又は、撮像装置1と通信を行える外部システムに送信する。以下の説明では、レンズ原点検出器6が検出したバリエータレンズ群3及びフォーカスレンズ群5の絶対位置に対して、フォーカスレンズ群5が移動した位置を「フォーカスレンズ位置」と呼ぶ。そして、被写体に対して合焦したフォーカスレンズ群5の位置を「合焦位置」と呼ぶ。
In addition, the
温度検出器7は、レンズユニット2内の温度を検出し、検出結果をレンズユニット内温度情報として、撮像装置1に搭載されている制御部30又は、撮像装置1と通信を行える外部システムに送信する。外部システムは、例えば制御コンピュータによって構成されており、制御部30を介してレンズ絶対位置情報又はレンズユニット内温度情報を受信することができる。
The
さらに、レンズユニット2は、バリエータレンズ群3、絞り4及びフォーカスレンズ群5をそれぞれ駆動させるモータ44〜46を有している。モータ44〜46は、それぞれモータドライバ回路41〜43から入力するモータ制御信号によって駆動される。
Further, the
撮像素子8(撮像部の一例)は、フォーカスレンズ群5を通じて受光面の撮像領域に結像された被写体の光学像を撮像して、この光学像を光電変換し、得られた電気信号(撮像信号)をノイズ除去回路9に出力する。この撮像信号は、ノイズ除去回路9において所定のノイズ除去処理が施され、自動利得制御回路10において最適なレベルに増幅される。そして、撮像信号は、アナログ/ディジタル変換回路11においてディジタル変換された後、ディジタル撮像信号としてカメラ信号処理部13に出力される。
The imaging device 8 (an example of an imaging unit) captures an optical image of a subject imaged in an imaging region on the light receiving surface through the
オートフォーカス制御装置12は、カメラ信号処理部13と制御部30を備える。
The
カメラ信号処理部13は、信号変換処理回路14、コントラスト信号生成部15、AE(Auto Exposure)信号生成回路18、被写体情報信号生成回路19、及びAG(Auto Gain)信号生成回路20を備える。
The camera
信号変換処理回路14は、アナログ/ディジタル変換回路11から入力されるディジタル撮像信号に対し、所定の信号処理を施す。このとき、信号変換処理回路14は、ディジタル撮像信号を、例えばNTSC(National Television Standards Committee)規格やPAL(Phase Alternating Line)規格等のテレビジョン方式に準拠した標準的なテレビジョン信号に変換して外部に出力する。例えば、信号変換処理回路14は、このテレビジョン信号を、撮像装置1とネットワークを介して通信を行う外部システムに送信する。外部システムにおいて、テレビジョン信号に基づく画像が表示装置の画面に表示される。
The signal
さらに、カメラ信号処理部13は、HPF(ハイパスフィルタ)回路16及び積分器17からなるコントラスト信号生成部15(信号生成部の一例)を備える。HPF回路16は、カットオフ周波数の値を自在に変更できる。そして、HPF回路16は、任意のカットオフ周波数より高い信号を生成し、積分器17に出力する。積分器17は、HPF回路16から入力された信号を積分したコントラスト信号VFを制御部30に送出する。なお、HPF回路16及び積分器17からなるコントラスト信号生成部15は、任意のテレビジョン信号の領域から値を取得することができる。HPF回路16と積分器17との各組み合わせは、後述する図3に示すように撮像素子8の撮像領域に設定される各第2検波領域(複数の検波領域の一例)に対応して設けてもよい。
Further, the camera
ここで、図2と図3を参照して、コントラスト信号生成部15がコントラスト信号を生成する検波領域について説明する。
Here, with reference to FIG. 2 and FIG. 3, the detection area | region where the contrast
図2は、本実施形態に係る撮像領域内の第1検波領域の一例を示す。 FIG. 2 shows an example of the first detection area in the imaging area according to the present embodiment.
撮像装置1から出力されるテレビジョン信号は、外部システムの表示装置の出力画面に表示される。撮像領域50に撮像される画像が、出力画面に表示されることとなる。撮像領域50の中心付近には、矩形枠の第1検波領域51が設けられている。コントラスト信号生成部15は、第1検波領域51内で被写体のコントラストを検波し、コントラスト信号を生成する。
The television signal output from the
図3は、本実施形態に係る撮像領域内の第2検波領域の一例を示す。 FIG. 3 shows an example of the second detection area in the imaging area according to the present embodiment.
コントラスト信号生成部15は、撮像領域50内に設定された9つの第2検波領域52a〜52i(複数の検波領域の一例)に対し、各々の検波領域に対応する撮像信号からコントラスト信号を生成する。そして、制御部30は、第2検波領域52a〜52i毎にコントラスト信号レベルを求める。第2検波領域52a〜52i毎のコントラスト信号レベルは、後述するように制御部30が、被写体を低コントラスト被写体であるかどうかを判別し、この被写体の優先度情報に所定の優先度を付与するために用いられる。そして、制御部30は、被写体情報に設定された優先度に従って、メモリ32に被写体情報を記憶する。
For the nine
図1の撮像装置1の構成及び動作の説明に戻る。
Returning to the description of the configuration and operation of the
コントラスト信号生成部15は、信号変換処理回路14により生成されたテレビジョン信号(撮像画像)のうちの第1検波領域51における輝度信号の高周波成分を、HPF回路16によって抽出する。ある検波領域における輝度信号の高周波成分は、例えば、当該検波領域内のある画素が出力する輝度信号(輝度値)と隣接する画素又は所定の画素数分だけ離れた画素が出力する輝度信号との差分を取ることにより抽出される。この抽出処理を、第1検波領域51内の全画素について行う。そして、カメラ信号処理部13は、抽出した第1検波領域51内の全画素の輝度信号の高周波成分を、積分器17において積分処理することにより、コントラスト信号VFを生成して制御部30に送出する。
The
AE信号生成回路18は、入力されたテレビジョン信号に基づき、現在の撮影映像の明るさ、レンズユニット2の絞り4の開き具合及び自動利得制御のゲイン等に応じた信号レベルのオートアイリス信号AEを生成し、これを制御部30に送出する。
Based on the input television signal, the AE
被写体情報信号生成回路19は、入力されたテレビジョン信号の全体、または任意の領域から色信号等を抽出し、被写体情報を制御部30に送出する。この被写体情報には、例えば、被写体のコントラスト値、色信号、被写体距離、輝度信号が含まれる。
The subject information
AG信号生成回路20は、入力されたテレビジョン信号に基づき、自動利得制御回路10の利得を制御するためのAG信号を生成し、これを制御部30に送出する。
The AG
制御部30は、例えば撮像装置1の各部を制御するCPU(Central Processing Unit)31及び不揮発性のメモリ32(記憶部の一例)等の情報処理資源を備える。メモリ32には、本実施の形態に係る機能を実現するためのプログラム、該プログラムに用いられるパラメータや該プログラムの実行により生成されるデータ等が格納される。例えばメモリ32には、オートアイリスデータ処理プログラム(AEP)33及びオートフォーカスデータ処理プログラム(AFP)34が格納されている。また、メモリ32には、後述する図9に示す各データが格納されている。そして、制御部30が行う処理は、CPU31がメモリ32からプログラム、パラメータ、データ等を読み出して、所定の処理を実行することで実現される。
The
また、制御部30は、不図示の通信インターフェースを介して接続される外部システムから制御コマンド等を受信する。なお、メモリ32は、撮像画像の画像データをフレーム単位で一時的に記憶するバッファメモリとしての機能も有する。メモリ32とは別に、バッファメモリを設けてもよい。また、メモリ32は、撮像装置1、フォーカス制御装置12の外部に設けてもよい。
Further, the
制御部30は、メモリ32からオートアイリスデータ処理プログラム33を呼び出し、AE信号生成回路18で生成されたオートアイリス信号AEによって現在の撮影映像の明るさを求める。併せて、制御部30は、メモリ32からオートフォーカスデータ処理プログラム34を呼び出し、オートアイリス信号AEによって絞り4の開き具合及び自動利得制御のゲイン等に対する評価値であるオートアイリス評価値を算出する。また、制御部30は、コントラスト信号生成部15で生成されたコントラスト信号VFの値であるオートフォーカス評価値を取得する。
The
また、制御部30は、コントラスト信号生成部15に対して、撮像領域50内に第2検波領域52a〜52iを設定する指示を行う。また、制御部30は、被写体情報信号生成回路19から入力する被写体情報に、フォーカス位置に対応するフォーカスレンズ群5の合焦時における被写体距離を付加し、メモリ32に被写体情報を格納する処理を実行する。この処理の詳細は後述する。
In addition, the
そして、制御部30は、メモリ32から読み出した被写体情報に基づいて駆動部を制御し、フォーカスレンズ群5を合焦状態とする。このために、制御部30は、バリエータレンズ群3及び絞り4の駆動を制御するための第1及び第2のモータ制御信号を生成し、これらをそれぞれモータドライバ回路41、42に出力する。第1及び第2のモータ制御信号は、オートアイリス評価値、レンズ絶対位置情報に基づき得られる現在のズーム倍率を表すズーム倍率情報、レンズユニット内温度情報、及びメモリ32に格納されているトレースカーブデータとに基づいて生成される。このバリエータレンズ群3及び絞り4の駆動は、周知の技術を用いて制御することができる。
Then, the
モータドライバ回路41は、入力された第1モータ制御信号に基づいて、レンズユニット2のバリエータレンズ群3を光軸方向に移動させるモータ44を駆動制御する。モータドライバ回路42は、入力された第2モータ制御信号に基づいて、レンズユニット2の絞りを駆動するモータ45を駆動制御する。このようにしてオートアイリス制御が行なわれる。なお、第1及び第2のモータ制御信号を生成する際に、レンズユニット内温度情報を用いることでオートアイリス制御の精度を上げることができる。
The
さらに、制御部30は、オートアイリス評価値に基づいて、電子シャッタ47のシャッタ速度を制御することにより、当該撮像素子8の受光面上に結像される被写体の光学像の光量調整を行う。また、制御部30は、オートアイリス評価値に基づいて、自動利得制御回路10におけるゲイン調整を行う。
Further, the
さらに、制御部30は、オートフォーカス評価値に基づいて合焦方向及び合焦位置を検出すると共に、第3モータ制御信号を生成し、これをモータドライバ回路43(駆動部の一例)に送出する。モータドライバ回路43は、第3モータ制御信号に基づいてレンズユニット2のフォーカスレンズ群5を光軸方向に移動させるモータ46(駆動部の一例)を駆動制御する。このようにモータドライバ回路43及びモータ46によって、被写体に対して合焦状態を得るためにフォーカスレンズ群5を駆動するオートフォーカス制御が行なわれ、撮影時に被写体に合焦することができる。これらのモータ44〜46として、例えばステッピングモータが用いられる。
Further, the
[(2)メモリ32内の被写体情報を利用した低コントラスト被写体のAF方法]
従来の監視用途において多くの撮像装置は、パンニング、チルティング、ズーム動作が可能であるが、ほとんどの撮像装置では撮影条件や撮影する被写体の種類が決まっている。そのため、撮像装置は、対象物の周りの明るさや対象物自体の明るさ、色、コントラスト値、倍率によって、監視対象を推測可能である。
[(2) AF Method for Low Contrast Subject Using Subject Information in Memory 32]
In conventional monitoring applications, many image pickup apparatuses can perform panning, tilting, and zoom operations. However, in most image pickup apparatuses, shooting conditions and types of subjects to be shot are determined. Therefore, the imaging apparatus can estimate the monitoring target based on the brightness around the object, the brightness of the object itself, the color, the contrast value, and the magnification.
本発明を活用するにあたって、メモリ32内には予め低コントラスト被写体の合焦に有利な情報が格納されている。本発明ではこの被写体情報を利用することで本来合焦不能と考えられる被写体に対し合焦を図るものである。
In utilizing the present invention, information advantageous for focusing on a low-contrast subject is stored in the
なお、本発明の説明においては、複数回のAF動作後、制御部30がメモリ32(後述する図10に示す被写体情報テーブル)に所定の制限個数まで被写体情報を格納した後、低コントラスト被写体の撮影時に有用な被写体情報だけを選択してメモリ32に格納する処理を「最適化」と呼ぶ。
In the description of the present invention, after a plurality of AF operations, the
<AF動作中に被写体が低コントラスト被写体と判定された場合>
本発明のAF動作は、コントラストAF動作に基づいて合焦を行っている時に撮影している被写体が低コントラスト被写体と判定された場合や、一般的なコントラスト方式のAF動作では合焦不可能と判断された場合、測距不可能と判断された場合などに好適なAF動作である。なお、AF動作中に撮影している被写体が低コントラスト被写体と判定する方法は、例えば、一定以上フォーカスレンズ群5を動かした後、コントラスト信号VFの傾きが閾値以下であるといったような方法である。
<When the subject is determined to be a low-contrast subject during AF operation>
According to the AF operation of the present invention, when the subject being photographed is determined to be a low-contrast subject when focusing is performed based on the contrast AF operation, it is impossible to focus on a general contrast AF operation. The AF operation is suitable when it is determined, or when it is determined that ranging is impossible. Note that the method for determining that the subject being photographed during the AF operation is a low-contrast subject is, for example, a method in which the inclination of the contrast signal VF is equal to or less than a threshold value after the
以下、本発明のAF動作の説明を行う。制御部30では、現在撮影している被写体が低コントラスト被写体と判定された場合、本発明に基づく方法を用いて被写体の合焦処理を実行する。
Hereinafter, the AF operation of the present invention will be described. When it is determined that the subject currently being photographed is a low-contrast subject, the
まず、制御部30は過去の合焦した時の被写体情報を格納している被写体情報テーブルから、現在撮影している被写体と最も類似性のある被写体情報を選出する。なお、格納する被写体情報は、過去に合焦した際の被写体情報に限らず、予めユーザーなどが入力して設定した値を用いてもよい。以下の説明においては、過去に合焦した際の被写体情報を格納している場合を用いて説明する。
First, the
制御部30は、まず、バリエータレンズ群3の位置から距離情報テーブルを参照し、現在のカメラの倍率を取得する。次に、被写体情報テーブルから、取得した倍率と同じ倍率に紐付けされている過去の被写体情報(OI_x)を被写体情報(pI)として選出する。
First, the
そして、制御部30は、被写体情報(pI)から色信号値と現在撮影している被写体の色信号値とを比較する。なお、被写体情報として格納される色情報以外にも、センサの観光度度合いである輝度信号値そのもの、動きベクトル、明度、テクスチャ等の特徴量であってもよい。以下では、特徴量の一例として色信号値を用いた場合を例に説明する。
Then, the
色信号値の比較を行う処理は次に示す通りである。まず、現在撮影している被写体の被写体情報を図2に示した第1検波領域より取得する。次に、取得した被写体情報より色信号値を抽出し、前記の被写体情報(pI)の色信号値とのデータ上の距離(d_I)を式(1)を用いてそれぞれ算出する。 The processing for comparing the color signal values is as follows. First, subject information of the subject currently being photographed is acquired from the first detection region shown in FIG. Next, a color signal value is extracted from the acquired subject information, and a distance (d_I) on the data with the color signal value of the subject information (pI) is calculated using Equation (1).
出力されている映像の色味が近ければ、出力されている色信号値の大きさが近しいことは自明である。色信号値の大きさが近しいということは、比較する色信号値同士のデータ空間上の距離が近しいことを示す。即ち、式(1)のような空間上の距離を求める式にて映像の色味の近さ、つまりは色信号値の類似性を計算することが可能となる。 If the color of the output video is close, it is obvious that the size of the output color signal value is close. The fact that the magnitudes of the color signal values are close indicates that the distance in the data space between the color signal values to be compared is close. That is, it is possible to calculate the closeness of the color of the video, that is, the similarity of the color signal values, using an expression for obtaining a spatial distance such as Expression (1).
なお、R0、G0、B0は、現在撮影している被写体の色信号を、Rn、Gn、Bmは、被写体情報テーブルに格納されている現在のカメラ倍率における色信号を表している。 R 0 , G 0 , and B 0 represent color signals of the subject currently being photographed, and Rn, Gn, and Bm represent color signals at the current camera magnification stored in the subject information table.
ここで、本実施例における被写体情報(pI)は、図2に示すような第2検波領域52a〜52iの検波領域のサイズにおいて色信号を検出しているので、図2の題検波領域と、現在撮影している検波領域のサイズが異なる。よって、絶対値による比較は誤った被写体情報の選出を行う原因となるので、サイズの差を打ち消すためそれぞれの検波領域のサイズに応じて色信号値は正規化された値に再計算されたものを使用してデータ上の距離(d_I)を算出する。
Here, since the subject information (pI) in this embodiment detects the color signal in the size of the detection areas of the
正規化は、例えばコントラスト信号や色信号を取得する検波領域ごとのそれぞれの色ごとに色信号値を積算した値を、検波領域ごとの画素数と画素毎に得た色信号の感高度合いの諧調を乗算した値にて除算した値である。即ち、色信号値取得時の諧調をS、検波領域ごとの画素数をP、それぞれの色信号を積算した値をC_Valueとした場合、それぞれ正規化された色信号の値(OC_Value)は次の式(2)となる。 Normalization is performed by, for example, integrating the color signal value for each color for each detection region from which a contrast signal or color signal is acquired, to determine the number of pixels for each detection region and the degree of sensitivity of the color signal obtained for each pixel. It is the value divided by the value obtained by multiplying the gradation. That is, assuming that the gradation at the time of obtaining the color signal value is S, the number of pixels for each detection region is P, and the value obtained by integrating the respective color signals is C_Value, each normalized color signal value (OC_Value) is Equation (2) is obtained.
ただし、CにはR(赤)、B(青)、G(緑)等のそれぞれの色が入る。 However, each color such as R (red), B (blue), and G (green) is entered in C.
そして、制御部30は、被写体情報(pI)のうち、求めた被写体情報データ上の距離(d_I)が最小となる被写体情報(pI_m)を選出する。そして、選出された被写体情報(pI_m)に紐付けされている被写体距離情報を抽出する。その後、制御部30は現在のバリエータレンズ群3の位置及び距離情報テーブルを参照し、前述の抽出した被写体距離情報の距離に合焦する位置へと、フォーカスレンズ群5を移動させAF動作を終了させる。
Then, the
ここで、被写体情報(pI)の中に、データ上の距離(d_I)が最小となる被写体情報が複数あった場合の処理を説明する。すなわち、データ上の距離(d_I)が最小となる状況が、現在撮影している被写体と色味が近い情報が複数格納された場合に起こりうる。この場合、撮像装置が同様の被写体を撮影することが多いことから、現在のAF動作を停止している撮像装置の合焦している位置と、撮影している被写体に対する合焦位置は近い可能性があると考えられる。 Here, a process when there are a plurality of pieces of subject information having the smallest distance (d_I) on the data in the subject information (pI) will be described. In other words, a situation where the distance (d_I) on the data is minimized may occur when a plurality of pieces of information that are close in color to the subject currently being photographed are stored. In this case, since the imaging device often shoots the same subject, the in-focus position of the imaging device that has stopped the current AF operation can be close to the in-focus position for the subject being shot. It is thought that there is sex.
以上の考えを基に、被写体情報(pI)の中からデータ上の距離(d_I)が最小となる被写体情報の被写体情報(pI_m)を選出した結果、被写体情報(pI_m)が複数選出された場合、現在のバリエータレンズ群3及びフォーカスレンズ群5の位置から距離情報テーブルを参照し、現在合焦している被写体距離を算出する。その後、算出した被写体距離と被写体情報(pI_m)のそれぞれに紐付けされている被写体距離情報との差を求める。次に、求めた差の内、最小の差となった被写体距離情報と紐付けられている被写体情報(pI_m2)を参照する情報として選出する。
Based on the above idea, when the subject information (pI_m) of the subject information that minimizes the data distance (d_I) is selected from the subject information (pI), and as a result, a plurality of subject information (pI_m) is selected. Then, the distance information table is referred from the current positions of the
その後、現在のバリエータレンズ群3の位置及び距離情報テーブルを参照することによって、前述の抽出した被写体距離情報の距離に合焦する位置へと、フォーカスレンズ群5を移動させAF動作を終了させる。
Thereafter, by referring to the current position and distance information table of the
ここで、上述の被写体距離と被写体情報(pI_m)のそれぞれに紐付けされている被写体距離情報との差が最小となる被写体情報が複数あった場合、被写体情報(pI_m2)は複数選出されることとなる。この場合、被写体情報(pI_m2)の内もっとも最新の被写体情報を参照する情報として選出し、前述の抽出した被写体距離情報の距離に合焦する位置へと、フォーカスレンズ群5を移動させAF動作を終了させる。
Here, when there are a plurality of pieces of subject information that minimize the difference between the subject distance and the subject distance information associated with each of the subject information (pI_m), a plurality of pieces of subject information (pI_m2) are selected. It becomes. In this case, the most recent subject information in the subject information (pI_m2) is selected as information that is referred to, and the
制御部30は、これらの動作によって、最適化された被写体情報テーブルを活用し、コントラスト方式に基づくAF動作よりも、低コントラスト被写体に対しより正確にすばやく合焦を行うことが可能となる。
With these operations, the
上述のアルゴリズムを図4を用いて具体的な例を示す。 A specific example of the above algorithm will be described with reference to FIG.
また、図10に示すような、本例における被写体情報テーブルには、図6(A)に示すような被写体の被写体情報が格納されているとする。図6(A)に示すように被写体54は、例えば、昼間の空を背景としたタワー型の建築物であり、第1検波領域51内において、空と建築物には色味や明るさに違いがある。本被写体に対しては、コントラストAFにて合焦が可能である。AF動作後、本被写体においては、後述の被写体情報取得方法によって、カメラの倍率、合焦距離、及び画像内の低コントラスト部分である背景の空の特徴量の色信号値が被写体情報として格納されることとなる。前述の特徴量は、例として、図10の被写体情報テーブルにおいては倍率がn、番号が5に相当するものとする。つまり、例の被写体の被写体情報は、合焦した際の被写体までの距離を示す情報(被写体距離情報)はD20とし、映像信号の中の赤、緑、青の信号値(色信号値(R)、色信号値(G)、色信号値(B))はそれぞれR20、G20、B20とする。また、優先度情報の詳細は後述するが、本被写体は優先度を2として情報を記録する。
Further, it is assumed that subject information of the subject as shown in FIG. 6A is stored in the subject information table in this example as shown in FIG. As shown in FIG. 6A, the subject 54 is, for example, a tower-type building against the background of the daytime sky. In the
図4(A)に示すのは、図6の被写体に対しn倍のまま水平方向左側へ僅かにカメラを動かし、中心の第1検波領域51を空に合わせて撮影している状態を示している。図4(B)は、図4(A)を撮影した際に、フォーカスレンズ群5を移動させ、合焦位置からずれた状態、即ちピンボケの状態の映像である。コントラスト方式に基づくAF動作では図4(B)のピンボケの状態から、図4(A)のような合焦状態にさせることは難しい。これは、空のように一面同じ色や明るさである場合、図4(C)のグラフの様にコントラスト信号レベルの形がなだらかであり、撮像装置がフォーカスレンズを光軸方向に移動させてもコントラスト信号レベルのピークとなる合焦点を見つけにくいためである。
FIG. 4A shows a state where the camera is moved slightly to the left in the horizontal direction while being n times as large as the subject of FIG. 6 and the
ここで、本発明を用いて、図4(B)のように低コントラストな被写体にピンボケした状態からAFにて合焦させる場合を説明する。 Here, a case will be described in which the present invention is used to focus with AF from a state in which a low-contrast subject is out of focus as shown in FIG.
制御部30はAF開始の信号を受け取った後、コントラスト方式に基づくAF動作を行い、一定の距離フォーカスレンズ群5を駆動させる。この時、フォーカスレンズ群5を動かしたとしても、コントラスト信号レベルがほとんど変わらないため、現在撮影している被写体が低コントラストと判断される。そして、コントラスト方式に基づくAFを停止し、本発明に基づくAF処理を実行する。
After receiving the AF start signal, the
本発明に基づくAF処理は、まず、図4(B)における第1検波領域51より色信号値(赤=Rb、緑=Gb、青=Bb)を取得する。取得した色信号値は、上述の式(2)によって、正規化される。
In the AF processing according to the present invention, first, color signal values (red = Rb, green = Gb, blue = Bb) are acquired from the
次に、現在のカメラの倍率はn倍であることからn倍に紐付けられている被写体情報を被写体情報テーブルより抽出する。その後、正規化した色信号値と倍率を基に抽出された被写体情報の色信号値を式(1)を用いてそれぞれ比較し、特徴量の距離が最も小さくなる被写体情報を参照する情報として選出する。 Next, since the magnification of the current camera is n times, subject information associated with n times is extracted from the subject information table. Thereafter, the normalized color signal value and the color signal value of the subject information extracted based on the magnification are respectively compared using the formula (1), and selected as information for referring to the subject information having the smallest feature amount distance. To do.
この時、図4(B)は上述の図4(A)の空とほぼ同色と考えられる。そのため、取得された色信号値(Rb、Gb、Bb)は、図10中の被写体情報の色信号値(R20、G20、B20)とほぼ一致する。結果として、上記の処理において参照情報としては倍率n、番号5の被写体情報が最終的に選出される。
At this time, FIG. 4B is considered to be substantially the same color as the sky of FIG. 4A described above. Therefore, the acquired color signal values (Rb, Gb, Bb) substantially match the color signal values (R20, G20, B20) of the subject information in FIG. As a result, the subject information having the magnification n and
そして、選出された倍率n、番号5と紐付けされている被写体距離情報であるD20が抽出され、この距離(D20)と合焦するようにフォーカスレンズ群5を移動させることで、最終的に空に対し合焦状態を得る。
Then, D20 which is subject distance information linked to the selected magnification n and
以上の様に、例え被写体が低コントラスト被写体だとしても、その特徴量から現在撮影されている被写体と過去に合焦した被写体の情報を比較することで、現在の被写体を推測し、得た情報からカメラを合焦状態とすることが可能となる。 As described above, even if the subject is a low-contrast subject, the information obtained by estimating the current subject by comparing the information of the subject currently photographed and the subject focused on in the past from the feature amount. Thus, the camera can be brought into focus.
[(3)メモリ32内の被写体情報を最適化する方法]
以下では、上述のAF動作を行うに当たって、メモリ32内の被写体情報を最適化する方法を記載する。以下の方法によって記録する被写体情報を最適化することで、より本発明の効果が発揮されることとなる。
[(3) Method for optimizing subject information in the memory 32]
Hereinafter, a method for optimizing subject information in the
前記の通り、撮像装置は、対象物の周りの明るさや対象物自体の明るさ、コントラスト値、倍率によって、監視対象を推測可能である。 As described above, the imaging apparatus can estimate the monitoring target based on the brightness around the object, the brightness of the object itself, the contrast value, and the magnification.
後述する図9に示す被写体情報格納領域には、倍率ごとに複数の過去の合焦履歴が被写体情報として格納される。この被写体情報格納領域には、合焦した可能性が高いと考えられ、かつ、低コントラストと考えられる被写体の情報が優先して格納される。これは、撮像装置1が測距不能な低コントラスト被写体に対して合焦を図る際に、測距可能な低コントラスト被写体に対し合焦したときの過去の合焦履歴を含む被写体情報を参照することが好適だからである。
In a subject information storage area shown in FIG. 9 described later, a plurality of past focusing histories are stored as subject information for each magnification. In this subject information storage area, information on a subject considered to have a high possibility of being in focus and considered to have low contrast is preferentially stored. This refers to subject information including past in-focus history when the
このため、制御部30は、合焦時に撮像信号から得た情報を用いて、被写体を第1低コントラスト被写体、第2低コントラスト被写体及び予備用被写体に分け、さらに被写体の種類に応じて優先順位を付ける。そして、制御部30は、優先順位に応じて、被写体情報を被写体情報格納領域に格納する。
For this reason, the
ここで、本実施の形態例で用いる第1低コントラスト被写体、第2低コントラスト被写体、予備用コントラスト被写体について、図5〜図7を参照して説明する。図5〜図7に示す各被写体は撮像装置1によって昼間に撮影されたものとする。
Here, the first low-contrast subject, the second low-contrast subject, and the preliminary contrast subject used in the present embodiment will be described with reference to FIGS. Each of the subjects shown in FIGS. 5 to 7 is taken by the
図5は、第1低コントラスト被写体の例を示す。図5Aは、被写体53の例を示し、図5Bは第1検波領域51内でのコントラスト信号レベルの例を示し、図5Cは第2検波領域52a〜52iの例を示す。なお、図5Cの説明は後述する。
FIG. 5 shows an example of a first low-contrast subject. 5A shows an example of the subject 53, FIG. 5B shows an example of the contrast signal level in the
図5Aに示す撮像領域50内の被写体53は、例えば、多数の窓が設けられたビルの壁面であり、コントラスト信号検波枠によって示される第1検波領域51内における色味や明るさの変化に乏しい被写体である。そして、図5Bに示すように、制御部30がコントラスト信号生成部15から取得するコントラスト信号のレベル変化の形はなだらかである。このような被写体53を「第1低コントラスト被写体」と呼ぶ。制御部30は、明るい環境下ではフォーカスレンズ群5を合焦するために十分なコントラスト信号を第1低コントラスト被写体から取得可能である。しかし、明るさの変化等の僅かな環境変化が起こると、制御部30は、フォーカスレンズ群5が合焦するには不十分なコントラスト信号しか第1低コントラスト被写体から取得できず、フォーカスレンズ位置を合焦点に合わせにくくなる。このため、記録する低コントラスト被写体としては好適なものの、場合によっては、撮像装置1が第1低コントラスト被写体を撮像する際には、後述するように被写体情報格納領域に格納された被写体情報に基づいて、AF制御を行う必要がある。
A subject 53 in the
図6は、第2低コントラスト被写体の例を示す。図6Aは、被写体54の例を示し、図6Bは第1検波領域51内でのコントラスト信号レベルの例を示し、図6Cは第2検波領域52a〜52iの例を示す。なお、図6Cの説明は後述する。
FIG. 6 shows an example of a second low contrast subject. 6A shows an example of the subject 54, FIG. 6B shows an example of the contrast signal level in the
図6Aに示すように被写体54は、例えば、昼間の空を背景としたタワー型の建築物であり、第1検波領域51内において、空と建築物には色味や明るさに違いがある。制御部30は、撮像領域50の中心付近に捉えた被写体54から十分なコントラスト信号を得られるため、フォーカスレンズ群5を被写体54に合焦させることが可能である。しかし、第1検波領域51内には、低コントラスト部分である空が広い範囲に含まれている。このとき、図6Bに示すように、コントラスト信号レベルの変化の形は低いピークの山となっている。このような被写体54を「第2低コントラスト被写体」と呼ぶ。そこで、制御部30は、後述する第2検波領域52a〜52iを用いる方法により、第1検波領域51内の低コントラスト部分の被写体情報を抽出することで、合焦位置に信頼性がある低コントラスト被写体情報を被写体情報格納領域に格納する。
As shown in FIG. 6A, the subject 54 is, for example, a tower-type building against the background of the daytime sky. In the
図7は、予備用コントラスト被写体の例を示す。図7Aは、被写体55の例を示し、図7Bは第1検波領域51内でのコントラスト信号レベルの例を示し、図7Cは第2検波領域52a〜52iの例を示す。なお、図7Cの説明は後述する。
FIG. 7 shows an example of a preliminary contrast subject. 7A shows an example of the subject 55, FIG. 7B shows an example of the contrast signal level in the
図7Aに示すように被写体55は、例えば、昼間の空を背景としたタワー型の建築物、ビル、雲であり、第1検波領域51内において、空と建築物の色味や明るさに違いがある。そして、図7Cに示すように、コントラスト信号レベルの変化の形は高いピークの山となっている。このような被写体55を「予備用コントラスト被写体」と呼ぶ。予備用コントラスト被写体は、第1検波領域51内で低コントラスト部分の占める範囲が狭く、コントラスト方式においてフォーカスレンズ群5が合焦しやすい。このため、予備用コントラスト被写体は、上述した第1及び第2低コントラスト被写体との類似度合いは比較的低いものの、フォーカスレンズ群5の合焦位置に関しては信頼性が高いと考えられる。そこで、制御部30は、第1及び第2低コントラスト被写体のいずれの被写体情報もメモリ32の被写体情報格納領域に履歴として格納されていない場合に、フォーカスレンズ位置の調整を補助するための予備情報として予備用コントラスト被写体を使用する。
As shown in FIG. 7A, the subject 55 is, for example, a tower-type building, building, or cloud against the background of the daytime sky, and in the
<被写体情報の記録方法>
次に、制御部30がメモリ32に被写体情報を記録する方法について説明する。
<Subject information recording method>
Next, a method by which the
制御部30は、フォーカスレンズ群5が合焦状態にあると判定したことをトリガーとして、AF動作完了時に合焦している可能性を表す数値として、AF動作時にフォーカスレンズ群5が合焦しているかの度合いを表す信頼度を求める。この信頼度は、AF動作開始からAF動作停止までの制御部30より送信されたフォーカスレンズ群5への指示履歴とコントラスト信号レベルとに基づいて制御部30により算出される。制御部30が信頼度を算出する処理は既知である。
The
その後、制御部30は、算出した信頼度を、フォーカスレンズ群5が合焦しているか否かを判定するための基準値である信頼度閾値(r_th)と比較する。そして、制御部30は、算出した信頼度が信頼度閾値(r_th)以上であれば、カメラ信号処理部13に対して第1検波領域51を第2検波領域52a〜52iに切り替える指示を行い、カメラ信号処理部13から各領域のコントラスト信号と色信号を取得する。
Thereafter, the
次に、制御部30が第1検波領域51を切り替えた第2検波領域52a〜52iを用いて被写体を分類し、被写体情報に優先度を付与する様子を説明する。
Next, how the
図8は、制御部30が分類した被写体に付与される第1〜第3優先度の例を示す。
FIG. 8 shows an example of the first to third priorities given to the subject classified by the
上述したように制御部30は、信頼度が信頼度閾値(r_th)以上である被写体を、それぞれ第1低コントラスト被写体、第2低コントラスト被写体、予備用コントラスト被写体に分類し、各被写体の被写体情報に第1〜第3優先度のいずれかを付与する。制御部30が第1〜第3優先度を決定するために、図8の数直線にはレベル閾値の一例として用いられる第1閾値(d_th1)と、第1閾値(d_th1)より大きい第2閾値(d_th2)が設けられる。
As described above, the
図9は、メモリ32が有する一次被写体情報格納領域、被写体情報格納領域、距離情報テーブル及び各閾値の構成例を示す。
FIG. 9 shows a configuration example of a primary subject information storage area, a subject information storage area, a distance information table, and threshold values that the
メモリ32は、撮像装置1が現在撮像する被写体の被写体情報を一時的に格納する一次被写体情報格納領域、過去に撮像した被写体情報の複数の被写体情報を格納する被写体情報格納領域、距離情報テーブルを有する。また、メモリ32には、信頼度閾値、第1〜第4閾値が記憶される。撮像装置1が被写体を撮像すると、制御部30がコントラスト信号生成部15から取得した新たな被写体情報(NI)を一次被写体情報格納領域に格納する。
The
一方、被写体情報格納領域には、制御部30が過去にコントラスト信号生成部15から取得した過去の被写体情報(OI_x:x=1、2、3、…n)を格納する被写体情報テーブル(後述する図10を参照)が構成される。距離情報テーブルには、バリエータレンズ群3の位置とフォーカスレンズ位置との関係が距離情報として格納される。信頼度閾値は、制御部30が第1検波領域51の切り替え可否を判断する処理で参照する。第1及び第2閾値は、制御部30が被写体情報に第1〜第3優先度のいずれかを付与する処理で参照され、第3及び第4閾値は、制御部30が新たな被写体情報(NI)の被写体情報格納領域への格納可否を判断する処理で参照される。
On the other hand, in the subject information storage area, a subject information table (described later) that stores past subject information (OI_x: x = 1, 2, 3,... N) acquired by the
再び、被写体情報の記録方法の説明に戻る。 Returning to the description of the subject information recording method again.
制御部30は、第2検波領域52a〜52iから取得するコントラスト信号より、最大のコントラスト信号レベル(con_max)と最小のコントラスト信号レベル(con_min)とのコントラスト信号レベルの差(diff_pp)を求める。このコントラスト信号レベルの差(diff_pp)は、正負の符号が含まれる値であってもよいし、絶対値であってもよい。
The
そして、制御部30は、コントラスト信号レベルの差がレベル差閾値未満であれば、被写体情報に高い優先度を付与し、コントラスト信号レベルの差が、レベル差閾値以上であれば、被写体情報に低い優先度を付与する。そして、制御部30は、高い優先度が付与された被写体情報を優先してメモリ32に記憶する。
Then, the
本実施の形態例において、制御部30は、図8に示すようにコントラスト信号レベルの差(diff_pp)と、第1閾値(d_th1)及び第2閾値(d_th1)とを比較する。制御部30は、コントラスト信号レベルの差(diff_pp)が第1閾値(d_th1)未満であれば、被写体の色や輝度に濃淡がないと判定する。このような被写体は、撮像領域50の全体にわたってコントラストは一様であるため、第1低コントラスト被写体と判定される。例えば、図5Cに示す第2検波領域52a〜52iはいずれも同様なコントラストであるため、制御部30は、被写体53を第1低コントラスト被写体と判定する。
In the present embodiment, the
制御部30は、被写体が第1低コントラスト被写体であると判定すると、優先度情報を第1優先度(p_p1)として、撮像時のフォーカスレンズ位置を基に、距離情報テーブルから距離情報を取得する。そして、制御部30は、コントラスト信号生成部15から取得したコントラスト信号レベルが最小となる領域の色信号値と、取得した距離情報と、優先度情報とを含む新たな被写体情報(NI)を一時被写体情報格納領域に格納する。
When determining that the subject is the first low-contrast subject, the
図8に示すようにコントラスト信号レベルの差(diff_pp)が第2閾値(d_th2)以上であれば、撮像領域50内に一定以上のコントラストがあると考えられる部分と、低コントラスト部分とが存在すると考えられる。このような被写体は、制御部30によって第2低コントラスト被写体と判定される。例えば、図6Cに示す第2検波領域52c、52d、52gには空が含まれ、これらの第2検波領域はコントラストが低い(con_min)。しかし、第2検波領域52a、52b、52e、52f、52h、52iには雲又は建物が含まれ、いずれかの第2検波領域はコントラストが高い(con_max)。このため、制御部30は、被写体54を第2低コントラスト被写体と判定する。
As shown in FIG. 8, if the difference (diff_pp) in the contrast signal level is equal to or greater than the second threshold (d_th2), there is a portion that is considered to have a certain level of contrast and a low contrast portion in the
制御部30は、被写体が第2低コントラスト被写体であると判定すると、第1優先度(p_p1)より低い第2優先度(p_p2)を優先度情報として、撮像時のフォーカスレンズ位置を基に、距離情報テーブルから、距離情報を取得する。そして、制御部30は、コントラスト信号レベルが最小となる領域の色信号値と、取得した距離情報と、優先度情報とを含む新たな被写体情報(NI)を一時被写体情報格納領域に格納する
図8に示すようにコントラスト信号レベルの差(diff_pp)が、第1閾値(d_th1)以上第2閾値(d_th2)未満であれば、撮像領域50内のコントラストが一様でないと考えられる。このような被写体は、低コントラスト領域しか存在しないような第2検波領域52a〜52iはない。例えば、図7Cに示す第2検波領域52a〜52iのいずれにも空に対してコントラストがある建物、雲のいずれかが含まれており、雲又は空だけしか含まれないような領域はない。このため、制御部30は、被写体55を予備用コントラスト被写体と判定する。
When the
制御部30は、被写体が予備用コントラスト被写体であると判定すると、第2優先度(p_p2)より低い第3優先度(p_p3)を優先度情報として、撮像時のフォーカスレンズ位置を基に、距離情報テーブルから、距離情報を取得する。そして、制御部30は、コントラスト信号レベルが最小となる領域の色信号値と、取得した距離情報と、優先度情報とを含む新たな被写体情報(NI)を一時被写体情報格納領域に格納する。
When determining that the subject is a preliminary contrast subject, the
ここで、図10を参照して被写体情報テーブルの構成例を説明する。 Here, a configuration example of the subject information table will be described with reference to FIG.
上述したように、メモリ32には被写体情報を格納するための被写体情報格納領域が確保されている。そして、制御部30が過去にコントラスト信号生成部15から取得した複数の過去の被写体情報(OI_x)をテーブル形式で被写体情報格納領域に格納している。この被写体情報格納領域には、倍率ごとに番号情報、距離情報、色信号値情報、優先度情報が関連付けられた被写体情報テーブルが形成されている。番号情報には、倍率毎に5個までの番号が格納される。距離情報には被写体距離が格納され、色信号値情報には、RGBのそれぞれに対応する色信号値が格納される。また、優先度情報には、被写体毎に付与された優先度が格納される。図10では、倍率“1”、番号“1”である被写体情報(OI_x)が破線の枠内に示されている。この被写体情報テーブルに格納できる過去の被写体情報の個数には上限がある。本実施の形態例ではそれぞれの倍率ごとに5個の過去の被写体情報を格納できるものとする。
As described above, the
なお、制御部30によって被写体情報が取得され、被写体情報テーブル内の最適化が行われるまでは、撮像装置1の使用者が予め任意の被写体情報を格納することも可能である。
It should be noted that until subject information is acquired by the
<被写体情報を被写体情報格納領域に格納する処理>
次に、一時被写体情報格納領域に新たな被写体情報(NI)が格納された場合における、制御部30が行う処理について説明する。
<Process for storing subject information in subject information storage area>
Next, a process performed by the
制御部30が被写体情報格納領域に被写体情報を格納する基準は、フォーカスレンズ群5が合焦している低コントラスト被写体の被写体情報を残すことである。しかし、同環境においては複数の類似する被写体情報を被写体情報格納領域に残すことが好適であるとは限らない。それは、類似する被写体情報を被写体情報格納領域に格納し続けると、被写体情報格納領域に格納されている被写体情報は汎用性に欠けるからである。そこで、制御部30は、被写体情報格納領域に低コントラスト被写体の被写体情報を残しつつも、既に格納されている被写体情報と類似する被写体情報は残さないような処理を行う。言い換えれば、制御部30は、一時被写体情報格納領域から読み出した新たな被写体情報と、被写体情報格納領域から読み出した過去の被写体情報とが類似しない場合に、過去の被写体情報に代えて、新たな被写体情報を被写体情報格納領域に格納する。この処理に際して、制御部30は、新たな被写体情報(NI)と過去の被写体情報(OI_x)の比較を次のように行う。
The reference for storing the subject information in the subject information storage area by the
まず、制御部30は、一時被写体情報格納領域に新たな被写体情報(NI)を格納すると、新たな被写体情報(NI)の優先度、距離情報、色信号値と、被写体情報格納領域内の全ての過去の被写体情報(OI_x)の優先度、距離情報、色信号値とをそれぞれ比較する。そして、制御部30は、被写体情報格納領域内の過去の被写体情報(OI_x)を新たな被写体情報(NI)に交換するか、または過去の被写体情報(OI_x)を交換せず、新たな被写体情報(NI)を一時被写体情報格納領域から削除するか否かを判定する。
First, when the new subject information (NI) is stored in the temporary subject information storage area, the
ここで、制御部30が行う判定処理について、図11を参照して具体的に説明する。
Here, the determination process performed by the
図11は、制御部30が被写体情報格納領域に格納する被写体情報を選出するために参照する第3閾値(th_3)と第4閾値(th_4)の関係を示す。以下の説明で第3閾値(th_3)を距離閾値の一例として示し、第4閾値(th_4)を距離差閾値の一例として示す。
FIG. 11 shows the relationship between the third threshold value (th_3) and the fourth threshold value (th_4) that the
まず、制御部30は、新たな被写体情報が一時被写体情報格納領域に格納されたことをトリガーとして演算処理を開始する。この演算処理にて、制御部30は、新たな被写体情報(NI)に含まれる色信号値と、被写体情報格納領域中の過去の被写体情報(OI_x)に含まれる色信号値とのデータ上の距離(d_I)(データ距離の一例)を次式(1)にて求める。
First, the
式(1)において、Ryは被写体情報の赤色の信号を表し、Gyは被写体情報の緑色の信号を表し、Byは被写体情報の青色の信号を表す。添え字yにはそれぞれnまたはoが当てられる。nは新たな被写体情報(NI)の情報を表し、oは過去の被写体情報(OI_x)の情報を表す。 In Expression (1), Ry represents a red signal of the subject information, Gy represents a green signal of the subject information, and By represents a blue signal of the subject information. The subscript y is assigned n or o, respectively. n represents new subject information (NI) information, and o represents past subject information (OI_x) information.
<データ上の距離(d_I)が第3閾値(th_3)以上であるときの処理>
次に、制御部30は、データ上の距離(d_I)が第3閾値(th_3)以上となる過去の被写体情報(OI2_x)を被写体情報格納領域から選出する。この選出処理は、図11に示す上段の数直線に表されている。この数直線には、新たな被写体情報(NI)の色信号値と、過去の被写体情報(OI_x)の色信号値とのデータ上の距離(d_I)に基づいて、被写体情報格納領域から被写体情報を選出するための第3閾値(th_3)が示されている。このように制御部30が、被写体情報(OI2_x)を被写体情報格納領域から選出する処理は、新たな被写体情報(NI)と過去の被写体情報(OI_x)の色の特徴の類似性を比較するために行われる。
<Processing when data distance (d_I) is greater than or equal to third threshold (th_3)>
Next, the
そして、制御部30は、選出した過去の被写体情報(OI2_x)に付された優先度に基づいて、過去の被写体情報(OI2_x)から過去の被写体情報(OI3_x)を選出する。つまり、過去の被写体情報(OI2_x)には、過去の被写体情報(OI3_x)が含まれていると言える。このとき、制御部30は、被写体情報格納領域から選出した過去の被写体情報(OI2_x)より、それぞれ優先度情報を取得し、新たな被写体情報(NI)の優先度情報の優先度と、過去の被写体情報(OI2_x)より取得したそれぞれの優先度情報の優先度とを比較する。上述したように第1優先度、第2優先度、第3優先度の順に優先度は高いため、制御部30は、新たな被写体情報(NI)の優先度以下の優先度が付された過去の被写体情報(OI3_x)を過去の被写体情報(OI2_x)から選出する。例えば、新たな被写体情報(NI)の優先度が“2”であれば、優先度が“2”、“3”である過去の被写体情報(OI2_x)が過去の被写体情報(OI3_x)として制御部30により選出される。
Then, the
次に、制御部30は、新たな被写体情報(NI)に付された優先度が、選出した過去の被写体情報(OI3_x)に付された優先度以上である新たな情報(NI)を被写体情報格納領域に格納する対象とする。このとき、制御部30は、色信号値のデータ上の距離(d_I2)が最小となる過去の被写体情報(OI3_x)に代えて、新たな被写体情報(NI)を被写体情報格納領域に格納する。このデータ上の距離(d_I2)は、制御部30によって上式(1)を用いて算出される。そして、制御部30は、データ上の距離(d_I2)が最小となる過去の被写体情報(OI3_x)を被写体情報格納領域から削除する。
Next, the
なお、制御部30は、新たな被写体情報(NI)の優先度と、過去の被写体情報(OI2_x)の優先度が全て同じであると判定した場合には、一時被写体格納領域から新たな被写体情報(NI)を削除する。また、制御部30は、新たな被写体情報(NI)の優先度より、全ての過去の被写体情報(OI2_x)の優先度が高いと判定した場合にも、一時被写体格納領域から新たな被写体情報(NI)を削除する。
Note that if the priority of the new subject information (NI) and the priorities of the past subject information (OI2_x) are all the same, the
このように制御部30は、新たな被写体情報(NI)と過去の被写体情報(OI_x)との優先度を比較して、第1低コントラスト被写体、第2低コントラスト被写体、予備用被写体の順に被写体情報を被写体情報格納領域に格納することができる。
In this way, the
<データ上の距離(d_I)が第3閾値(th_3)未満であるときの処理>
次に、新たな被写体情報(NI)の色信号値に対する、過去の被写体情報(OI_x)の色信号値のデータ上の距離(d_I)の全てが第3閾値(th_3)未満である場合を検討する。このとき、制御部30は、新たな被写体情報(NI)に含まれる被写体距離と、過去の被写体情報(OI_x)に含まれる被写体距離との差(diff_o)をそれぞれ算出する。
<Processing when data distance (d_I) is less than third threshold (th_3)>
Next, a case is considered in which the distance (d_I) on the data of the color signal value of the past subject information (OI_x) with respect to the color signal value of the new subject information (NI) is less than the third threshold value (th_3). To do. At this time, the
図11に示す下段の数直線には、データ上の距離(d_I)が第3閾値(th_3)未満である過去の被写体情報(OI_x)から、被写体距離の差(diff_o)に基づいて、被写体情報(OI3_x)を選出するための第4閾値(th_4)が設定されている。 The lower number line shown in FIG. 11 shows subject information based on the subject distance difference (diff_o) from the past subject information (OI_x) whose data distance (d_I) is less than the third threshold (th_3). A fourth threshold value (th_4) for selecting (OI3_x) is set.
そして、制御部30は、被写体距離の差(diff_o)が第4閾値(th_4)以上となる過去の被写体情報(OI4_x)を過去の被写体情報(OI_x)から選出する。これにより、制御部30は、新たな被写体情報(NI)の色信号情報に類似する色信号情報を持つ過去の被写体情報(OI_x)の中から、新たな被写体情報(NI)の被写体距離が類似しない過去の被写体情報(OI4_x)だけを被写体情報格納領域から選出できる。
Then, the
そして、制御部30は、過去の被写体情報(OI4_x)からそれぞれ優先度情報を取得し、過去の被写体情報(OI4_x)の優先度情報に含まれる優先度と、新たな被写体情報(NI)の優先度情報に含まれる優先度とをそれぞれ比較する。このとき、制御部30は、新たな被写体情報(NI)の優先度以下の優先度が付された被写体情報を、過去の被写体情報(OI4_x)から被写体情報(OI5_x)として選出する。
Then, the
そして、制御部30は、新たな被写体情報(NI)に付された優先度が、選出した過去の被写体情報(OI5_x)に付された優先度以上である新たな情報(NI)を被写体情報格納領域に格納する対象とする。このとき、制御部30は、選出した被写体情報(OI5_x)の内、上式(1)にて求めた色信号値のデータ上の距離(d_I2)が最小となる被写体情報(OI5_x)に代えて、新たな被写体情報(NI)を被写体情報格納領域に格納する。そして、制御部30は、データ上の距離(d_I2)が最小となる過去の被写体情報(OI3_x)を被写体情報格納領域から削除する。
Then, the
なお、制御部30は、新たな被写体情報(NI)の優先度と、過去の被写体情報(OI4_x)の優先度とが全て同じであると判定した場合には、一時被写体格納領域から新たな被写体情報(NI)を削除する。また、制御部30は、新たな被写体情報(NI)の優先度よりも、全ての過去の被写体情報(OI4_x)の優先度が高いと判定した場合にも、一時被写体格納領域から新たな被写体情報(NI)を削除する。
Note that if the priority of the new subject information (NI) and the priority of the past subject information (OI4_x) are all the same, the
さらに、制御部30は、全ての過去の被写体情報(OI_x)と新たな被写体情報(NI)との被写体距離の差が第4閾値(th_4)未満である場合にも、一時被写体格納領域から新たな被写体情報(NI)を削除する。
Furthermore, the
制御部30は、このような法則に従って被写体情報格納領域に残す被写体情報を決定しているため、撮像装置1が低コントラスト被写体を撮像するために好適な被写体情報を被写体情報格納領域に残す最適化処理を行うことが可能となる。このため、制御部30は、従来の手法のように、測距不能な被写体、即ち、低コントラスト被写体に合焦する際に不要な被写体情報をメモリ32に残さない。
Since the
<AF動作のフローチャート>
図12〜図14は、撮像装置1が行うAF動作の例を示すフローチャートである。この処理は、撮像装置1において制御部30がメモリ32に格納したプログラムを実行して得られる処理シーケンスを表している。
<Flow chart of AF operation>
12 to 14 are flowcharts illustrating an example of the AF operation performed by the
制御部30は、電源が投入された場合や被写体が変わった場合等に、オートフォーカス制御処理を開始し、AF動作状態に移行する。
The
まず、制御部30は、電子シャッタ47を駆動させて撮像素子8の露光を行うことにより、撮像素子8に撮像信号を取り込ませる(S1)。その後、制御部30は、カメラ信号処理部13から与えられるコントラスト信号に基づき、コントラスト信号レベルを取得する(S2)。
First, the
次に、制御部30は、ステップS2で得たコントラスト信号を元に、フォーカスレンズ群5を駆動させる(S3)。この時、制御部30は、図2に示す第1検波領域51から取得したコントラスト信号に基づいて、現在撮影している被写体を本発明の適用対象内、即ち、ステップS5以降の判定処理の対象とするか否かを判断する(S4)。
Next, the
対象と判断した場合、すなわち、現在の被写体が低コントラスト被写体でありかつ、コントラスト方式のAF動作では合焦が難しいと判断された場合、図13に示すフローに遷移し、制御部30は、現在のバリエータレンズ群3の位置から距離情報テーブルを参照し、現在のカメラの倍率を取得する(S5)。
When it is determined that the current object is a low-contrast object and it is determined that it is difficult to focus with the contrast AF operation, the process proceeds to the flow shown in FIG. The distance information table is referred to from the position of the
次に、被写体情報テーブルから取得した倍率と同じ倍率に紐付けされている被写体情報(pI)を抽出する(S6)。 Next, subject information (pI) associated with the same magnification as the magnification obtained from the subject information table is extracted (S6).
ここで、現在撮影している被写体は図2の第一検波領域で被写体情報が取得されており、しかしながらメモリ32に記録されている情報は図2の第二検波領域で被写体情報が取得されているため、制御部30は、S7にてそれらの検波領域の大きさの違いによる影響をなくすため、取得したそれぞれの色信号値を正規化する。
Here, the subject currently captured is subject information acquired in the first detection region of FIG. 2, but the information recorded in the
次に、正規化された色信号値を用いて、式(1)により、データ上の距離(d_I)を計算する(S8)。そして、S9にて算出されたデータ上の距離(d_I)が最小となる被写体情報(pI_m)を選出し(S9)、その後被写体情報(pI_m)が複数あるかを判定し(S10)、データ上の距離(d_I)が最小となる被写体情報が唯一であれば(S10のNo)、その被写体情報(pI_m)から被写体距離情報を抽出し(S11)、抽出した被写体距離情報の距離に合焦するようにフォーカスレンズ群5を移動させる(S17)。
Next, using the normalized color signal value, the distance (d_I) on the data is calculated by Equation (1) (S8). Then, subject information (pI_m) that minimizes the distance (d_I) on the data calculated in S9 is selected (S9), and then it is determined whether there are a plurality of subject information (pI_m) (S10). If the subject information that minimizes the distance (d_I) is unique (No in S10), subject distance information is extracted from the subject information (pI_m) (S11), and the distance of the extracted subject distance information is focused. Thus, the
一方、S10の判定にて、データ上の距離(d_I)が最小となる被写体情報が複数ある場合(S10のYes)、現在のバリフォーカルレンズ群3およびフォーカスレンズ群5の位置より現在、合焦している被写体距離を求め(S12)、次にS9にて選出した被写体情報(pI_m)のうち現在合焦している被写体距離と被写体情報(pI_m)のそれぞれに紐付けられている被写体距離情報との差を算出し、その差が最小となる被写体距離情報を持つ被写体情報(pI_m2)を選出する(S13)。なお、S12〜S14のフロー処理を行わずに、被写体情報pI_m2の中から最新の被写体情報を選出(S15)してもよい。
On the other hand, when there are a plurality of pieces of subject information that minimize the data distance (d_I) in the determination of S10 (Yes in S10), the current focus is determined from the positions of the
S14ではS13にて選出された被写体情報(pI_m2)が複数あるかを判定し、この時被写体情報(pI_m2)が唯一である場合、S16にて被写体情報(pI_m2)と紐付けられている被写体距離情報を抽出し、その被写体距離情報の距離に合焦するようにフォーカスレンズ群5を移動させる(S17)。
In S14, it is determined whether there is a plurality of subject information (pI_m2) selected in S13. If the subject information (pI_m2) is unique at this time, the subject distance associated with the subject information (pI_m2) in S16. Information is extracted, and the
一方でS14にてS13にて選出された被写体情報(pI_m2)が複数あると判定された場合、選出された被写体情報(pI_m2)の中で最新の被写体情報を最終的な選出された被写体情報とし、その被写体情報に紐付けられている被写体距離情報を抽出し、その被写体距離情報の距離に合焦するようにフォーカスレンズ群5を移動させる(S17)
S17にてフォーカスレンズ群5を移動させた後は最終的にAF待機状態に移行する(S40)
一方、ステップS4で、制御部30は、被写体をステップS6以降の判定処理の対象としないと判断した場合、ステップS3のフォーカスレンズ群5の駆動指示を続ける。この時、制御部30は、コントラストAF方式に基づきフォーカスレンズ群5の駆動指示を行い、現在撮影している被写体に対し、フォーカスレンズ群5の合焦を図る(S15)。
On the other hand, if it is determined in S14 that there are a plurality of subject information (pI_m2) selected in S13, the latest subject information in the selected subject information (pI_m2) is the final selected subject information. Then, the subject distance information associated with the subject information is extracted, and the
After the
On the other hand, if the
この場合、制御部30は、本発明にとって有利となるようメモリ32内に記録・保持する被写体情報の最適化を行う。
In this case, the
制御部30はフォーカスレンズ位置、及びカメラ信号処理部13から取得するコントラスト信号に基づいて、現在のフォーカスレンズ群5が合焦状態であるか、すなわちフォーカスレンズ群5が合焦位置で停止しているか否かを判定する(S16)。制御部30は、フォーカスレンズ群5が合焦状態であると判定すると、現在のコントラスト信号レベル、フォーカスレンズ群5が合焦位置に停止するまでの時間等によって上述した信頼度を算出する(S17)。例えば、フォーカスレンズ群5が合焦位置に停止するまでの時間が長ければ、制御部30はコントラスト信号レベルのピークを見つけられていないため、信頼度が低くなる。
Based on the focus lens position and the contrast signal acquired from the camera
次に、制御部30は、ステップS17で算出した信頼度と、メモリ32から読み出した信頼度閾値(r_th)とを比較する(S18)。制御部30は、信頼度が信頼度閾値(r_th)未満であると判定した場合には、AF待機状態へ移行する(S40)。制御部30は、このAF待機状態では、被写体情報に変化が起きるまでAFを動作させず、被写体情報に変化が起きたときにAFを起動してAF動作状態とする。
Next, the
一方、制御部30は、信頼度が信頼度閾値(r_th)以上であると判定した場合、第1検波領域51を、図3に示す9つの第2検波領域52a〜52iに切り替える指示を、カメラ信号処理部13を介してコントラスト信号生成部15に行う(S19)。そして、制御部30は、コントラスト信号生成部15から第2検波領域52a〜52iの各々のコントラスト信号及び色信号値を取得する(S20)。さらに、制御部30は、ステップS20にてコントラスト信号及び色信号値を取得した時点における、バリエータレンズ群3の位置に基づいて、現在の倍率を取得する(S21)。
On the other hand, when the
次に、制御部30は、コントラスト信号レベルの差(diff_pp)を算出する(S22)。コントラスト信号レベルの差(diff_pp)は、第2検波領域52a〜52iの中で最大のコントラスト信号レベル(con_max)から、最小のコントラスト信号レベル(con_min)を減じた値である。
Next, the
その後、制御部30は、図8に示したようにコントラスト信号レベルの差(diff_pp)と、第1閾値(d_th1)及び第2閾値(d_th2)とを比較する(S23)。第1閾値(d_th1)は、第2閾値(d_th2)より小さい数値とする。そして、制御部30は、コントラスト信号レベルの差(diff_pp)が第1閾値(d_th1)未満であると判定すると、現在撮影している被写体の被写体情報に含まれる優先度情報を第1優先度に設定する(S24)。
After that, as shown in FIG. 8, the
また、制御部30は、コントラスト信号レベルの差(diff_pp)が第2閾値(d_th2)以上であると判定すると、制御部30は、現在撮影している被写体の被写体情報に含まれる優先度情報を第2優先度に設定する(S25)。また、制御部30は、コントラスト信号レベルの差(diff_pp)が第1閾値(d_th1)以上、かつ、この差(diff_pp)が第2閾値(d_th2)未満と判定すると、現在撮影している被写体の被写体情報に含まれる優先度情報を第3優先度に設定する(S26)。その後、制御部30は、現在のフォーカスレンズ位置に基づいて、メモリ32に格納されている距離情報テーブルから、現在合焦している被写体の被写体距離を取得する(S27)。
If the
ここで、ステップS11で取得した色信号値、ステップS15、ステップS16、ステップS17のいずれかで設定した優先度情報、ステップS18で取得した被写体距離を合わせて被写体情報とする。そして、制御部30は、この被写体情報を、メモリ32の一時被写体情報格納領域へと格納する(S28)。
Here, the color signal value acquired in step S11, the priority information set in any of step S15, step S16, and step S17 and the subject distance acquired in step S18 are combined to obtain subject information. The
次に、制御部30は、一時被写体情報格納領域に格納した被写体情報を、新たな被写体情報(NI)と称し、既に被写体情報格納領域に格納されている過去の被写体情報(OI_x)と比較する。まず、新たな被写体情報(NI)から色信号値を抽出し、さらにそれぞれの過去の被写体情報(OI_x)から色信号値を抽出し、それぞれの色信号に対し、式(1)を用いてデータ上の距離(d_I)を算出する(S29)。そして、制御部30は、算出したデータ上の距離(d_I)が第3閾値(d_th3)以上となる過去の被写体情報(OI2_x)を被写体情報格納領域から選出する(S30)。このとき、制御部30は、データ上の距離(d_I)が第3閾値(d_th3)以上となる過去の被写体情報(OI2_x)の有無を判定する(S31)。
Next, the
制御部30は、データ上の距離(d_I)が第3閾値(d_th3)以上となる過去の被写体情報(OI2_x)が被写体情報格納領域に存在しないと判定した場合、被写体距離の差(diff_o)を算出する(S32)。この被写体距離の差(diff_o)は、新たな被写体情報(NI)の被写体距離から過去の被写体情報(OI_x)を減じて算出される。そして、制御部30は、被写体距離の差(diff_o)が第4閾値(d_th4)以上となる過去の被写体情報(OI4_x)を被写体情報格納領域から選出する(S33)。このとき、制御部30は、第4閾値(d_th4)以上となる過去の被写体情報(OI4_x)の有無を判定する(S34)。そして、制御部30は、被写体情報格納領域に過去の被写体情報(OI4_x)が存在しないと判定した場合、一時被写体格納領域に格納されている新たな被写体情報(NI)を削除し(S39)、AF待機状態(S40)へと移行する。
When the
制御部30は、ステップS31にてデータ上の距離(d_I)が第3閾値(d_th3)以上となる被写体情報(OI2_x)が存在するか、又はステップS34にて第4閾値(d_th4)以上となる被写体情報(OI4_x)が存在すると判定した場合、次の処理に移行する。制御部30は、移行した次の処理にて新たな被写体情報(NI)の優先度と、過去の被写体情報(OI2_x又はOI4_x)の優先度とを比較する(S35)。そして、新たな被写体情報(NI)の優先度以下の優先度が付された過去の被写体情報(OI2_x又はOI4_x)の有無を判定する(S36)。
The
ステップS27にて制御部30は、新たな被写体情報(NI)の優先度以下の優先度が付された過去の被写体情報(OI2_x又はOI4_x)が存在しないと判定した場合、一時被写体格納領域に格納されている新たな被写体情報を削除する(S39)。そして、制御部30は、AF待機状態(S40)へと移行する。
If the
一方で、制御部30は、新たな被写体情報(NI)の優先度以下の優先度が付された過去の被写体情報(OI2_x又はOI4_x)が存在すると判定した場合、次処理を行う。この処理にて制御部30は、過去の被写体情報(OI2_x又はOI4_x)の中から、新たな被写体情報(NI)の優先度以下の優先度が付された過去の被写体情報(OI3_x又はOI5_x)を選出する。そして、制御部30は、新たな被写体情報(NI)の色信号値と、選出した過去の被写体情報(OI3_x又はOI5_x)の色信号値とのデータ上の距離(d_I2)を算出する(S37)。
On the other hand, when it is determined that there is past subject information (OI2_x or OI4_x) with a priority equal to or lower than the priority of the new subject information (NI), the
そして、制御部30は、データ空間距離(d_I2)が最小となる過去の被写体情報(OI3_x又はOI5_x)を被写体情報格納領域から削除し、代わりに新たな被写体情報(NI)を被写体情報格納領域に格納する(S38)。その後、制御部30は、新たな被写体情報(NI)を一時格納領域から削除し(S39)、最終的にAF待機状態に移行する(S40)。
Then, the
以上説明した一実施の形態例に係る撮像装置1は、低コントラスト環境において被写体を撮像する際、又は低コントラスト被写体を撮像する際に、適切なオートフォーカス制御を行うことができる。このため、撮像装置1は、測距が困難な被写体であっても、フォーカスレンズ位置を適切な位置に駆動し、被写体に合焦することができる。
The
ここで、制御部30は、測距可能な被写体に対してAF動作を停止した後、複数の第2検波領域52a〜52iからそれぞれ取得したコントラスト信号レベルに基づいて、被写体を分類し、被写体毎の被写体情報に第1〜第3優先度のいずれかを付与する。第1〜第3優先度は被写体情報格納領域に格納される優先順を示すものであるため、高い優先度が付された被写体情報が優先して被写体情報格納領域に格納される。このため、撮像装置1は、被写体情報格納領域から有用な被写体情報を読み出して、適切なフォーカスレンズ位置で低コントラスト被写体を撮像することができる。
Here, the
また、制御部30は、メモリ32の被写体情報格納領域に格納された被写体情報が制限個数を超える場合には、被写体情報格納領域の最適化を行う。この最適化に際して、一時被写体情報格納領域に格納された新たな被写体情報が、被写体情報格納領域に格納されている過去の被写体情報と類似する場合には、新たな被写体情報を被写体情報格納領域に格納しない。また、新たな被写体情報の優先度が過去の被写体情報の優先度と同じか低ければ、やはり新たな被写体情報を被写体情報格納領域に格納しない。このようにして被写体情報格納領域に格納される過去の被写体情報の数が最適化され、被写体情報格納領域に不要な被写体情報が格納されるのを防ぐことができる。
In addition, when the subject information stored in the subject information storage area of the
[(3)他の実施の形態]
なお、上述の実施の形態においては、本発明を図1のように構成された撮像装置1に適用するようにした場合について述べたが、本発明はこれに限らず、この他種々の構成を有する撮像装置に広く適用することができる。
[(3) Other embodiments]
In the above-described embodiment, the case where the present invention is applied to the
例えば、制御部30は、撮影している被写体がAF動作中に低コントラスト被写体と判定され、コントラスト方式のAF動作では合焦不可能と判断された場合のAF動作において、上述の実施の形態例では現在の倍率と最も近い被写体情報から被写体情報(pI)を選出することとしているが、付近の倍率に限らず、被写体情報テーブル全体や被写体情報テーブル上の任意の箇所、もしくは一定の法則に基づいて、選出してもよい。 For example, in the AF operation when the subject being photographed is determined to be a low-contrast subject during the AF operation, and it is determined that focusing cannot be performed in the contrast-type AF operation, the above-described exemplary embodiment In this case, subject information (pI) is selected from subject information closest to the current magnification. However, the subject information (pI) is not limited to the nearby magnification, but based on the entire subject information table, an arbitrary location on the subject information table, or a certain rule. May be elected.
さらに、制御部30は、本発明のAF動作を行う際、現在の色信号に限らず、例えば、領域の分布(位置、形状(慣性モーメント))、領域の面積、領域の数、デフォーカス量(被写体距離)、動きベクトル(差分データ)、色相(色成分)、彩度、明度、及びテクスチャ(模様)もしくはそれらの組み合わせた特徴量を用いても同様に類似性の比較が可能であり、過去の被写体情報に記録されている情報に合わせて、色信号の代わりに他の特徴量を使用しても良いし、複数の信号値を使用した特徴量から類似性を比較しても良い。その際は、改めて特徴量の類似度を比較する数式を用いて、類似度を比較することが望ましい。
Further, when performing the AF operation of the present invention, the
また、前述している本発明のAF動作は、コントラスト方式に基づいたAF動作では合焦不可能と判断されたときに合焦させる場合に好適なAF動作であるが、その場合に限らず、コントラスト方式に基づいたAF動作では合焦不可能とされるような被写体以外の被写体情報のデータを保持していれば、他のタイミング・被写体に対して前述の情報の類似性を比較するようなAF動作を行っても同様の効果が得られる。つまり、合焦させたい被写体のデータを保持し、そのデータを被写体の種類に合わせた任意のタイミングで呼び出してAF動作を行うことで、本発明と同様の合焦精度を向上させる効果が得られるような各種の被写体に好適なAF動作が可能となる。例えば、低コントラスト被写体ではなく点光源を含む被写体に対しては、過去の被写体までの距離、輝度の値等を色信号値の代わりの特徴量として保持し、点光源被写体があると判定された際は前述の輝度の値を特徴量とした被写体情報を参照しAF動作を行う場合などが考えられる。 Further, the AF operation of the present invention described above is an AF operation suitable for focusing when it is determined that focusing is impossible in the AF operation based on the contrast method. If data of subject information other than the subject that cannot be focused in the AF operation based on the contrast method is held, the similarity of the above information is compared with other timing / subjects. The same effect can be obtained even when the AF operation is performed. In other words, by holding the data of the subject to be focused and calling the data at an arbitrary timing according to the type of the subject and performing the AF operation, the effect of improving the focusing accuracy similar to the present invention can be obtained. An AF operation suitable for such various subjects can be performed. For example, for a subject that includes a point light source instead of a low-contrast subject, the distance to the past subject, the brightness value, etc. are retained as feature quantities instead of color signal values, and it is determined that there is a point light source subject In this case, the AF operation may be performed by referring to the subject information using the above-described luminance value as a feature amount.
さらに、本発明のAF動作のコントラスト信号等の検波領域の形、位置、個数は任意であり、矩形で中心に一つ出なくとも良い。即ち、ある範囲の領域に対し、色信号値、コントラストの差が確認できるように検波領域を任意に設定することができる。検波領域の数、位置、大きさを、撮像しようとする被写体の種類や大きさ、撮像画像内で該被写体が写り込むことが推測される位置等の条件に応じて設定することによって、より的確に目標の被写体に合焦することが可能となる。 Furthermore, the shape, position, and number of detection areas such as the contrast signal of the AF operation of the present invention are arbitrary, and it is not necessary to have one rectangle in the center. That is, the detection area can be arbitrarily set so that the difference between the color signal value and the contrast can be confirmed for a certain area. By setting the number, position, and size of detection areas according to conditions such as the type and size of the subject to be imaged and the position where the subject is expected to appear in the captured image, the detection area is more accurately set. It is possible to focus on the target subject.
また、上記の実施例においては参照した被写体距離情報の距離に合焦するよう、フォーカスレンズを移動させた時点でAF動作を停止させているが、フォーカスレンズを移動させた後、任意の時間コントラスト方式等のAF動作を行わせても良い。そうすることで、被写体距離情報を参照しAF動作を行うだけでは合焦しきれない僅かな被写体距離の差があった場合でも、その差を縮めることが可能になると考えられる。 In the above embodiment, the AF operation is stopped when the focus lens is moved so as to focus on the distance of the referenced subject distance information. However, after the focus lens is moved, an arbitrary time contrast is obtained. An AF operation such as a method may be performed. By doing so, it is considered that even if there is a slight difference in subject distance that cannot be focused by simply performing the AF operation with reference to the subject distance information, the difference can be reduced.
また、記録する被写体情報の最適化の際は、検波領域内で合焦点となりうるコントラスト信号レベルのピークが複数あり、いずれのピークもほぼ同じ値であれば、コントラスト信号レベルの差が小さくなるため、制御部30が、この被写体を第1低コントラスト被写体であると誤認識する可能性がある。このような誤認識を避けるためには、コントラスト信号レベルにレベル閾値を設けておき、制御部30は、各ピークのコントラスト信号レベルがレベル閾値以上であれば、被写体が低コントラスト被写体ではないと判定する。これにより高いコントラスト信号レベルが得られる被写体を低コントラスト被写体と誤認識しなくなる。
Also, when optimizing the subject information to be recorded, there are a plurality of contrast signal level peaks that can be in-focus in the detection region, and if the peaks are almost the same value, the difference in contrast signal level is small. The
また、図10の被写体情報テーブルには、倍率毎に5個の被写体情報が格納されるものとしたが、被写体情報テーブルに格納される被写体情報の数は任意としてよい。また、一定範囲の倍率だけを指定しておき、この範囲内の倍率に対応する被写体情報を共通のものとした被写体情報テーブルを形成してもよい。 In the subject information table of FIG. 10, five pieces of subject information are stored for each magnification, but the number of subject information stored in the subject information table may be arbitrary. Alternatively, only a certain range of magnifications may be specified, and a subject information table may be formed in which subject information corresponding to the magnifications within this range is shared.
また、制御部30は、メモリ32の被写体情報格納領域に格納された過去の被写体情報(OI_x)が制限個数を超える場合には、過去の被写体情報(OI_x)のうち、最も参照頻度が低いもの、又は最も古く被写体情報格納領域に格納されたものを削除してもよい。そして、制御部30は、削除した被写体情報の代わりに新たな被写体情報(NI)を被写体情報格納領域に格納してもよい。
When the past subject information (OI_x) stored in the subject information storage area of the
また、被写体距離以外にもフォーカスレンズ位置を記憶部に記憶し、選出した被写体情報のフォーカスレンズ位置に基づいてフォーカスレンズを駆動させてもよい。 In addition to the subject distance, the focus lens position may be stored in the storage unit, and the focus lens may be driven based on the focus lens position of the selected subject information.
なお、本発明は上述した実施の形態例に限られるものではなく、特許請求の範囲に記載した本発明の要旨を逸脱しない限りその他種々の応用例、変形例を取り得ることは勿論である。 The present invention is not limited to the above-described embodiments, and various other application examples and modifications can of course be taken without departing from the gist of the present invention described in the claims.
例えば、上述した実施の形態例は本発明を分かりやすく説明するために装置及びシステムの構成を詳細且つ具体的に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることは可能であり、さらにはある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加、削除、置換をすることも可能である。 For example, the above-described embodiment is a detailed and specific description of the configuration of the apparatus and the system in order to explain the present invention in an easy-to-understand manner. Absent. Further, a part of the configuration of one embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of one embodiment. Moreover, it is also possible to add, delete, and replace other configurations for a part of the configuration of each embodiment.
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。 Further, the control lines and information lines indicate what is considered necessary for the explanation, and not all the control lines and information lines on the product are necessarily shown. Actually, it may be considered that almost all the components are connected to each other.
1…撮像装置、2…レンズユニット、5…フォーカスレンズ群、8…撮像素子、12…オートフォーカス制御装置、13…カメラ信号処理部、14…信号変換処理回路、15…コントラスト信号生成部、16…HPF回路、17…積分器、30…制御部、31…CPU、32…メモリ
DESCRIPTION OF
Claims (7)
前記フォーカスレンズを通じて結像された光学像を撮像して撮像信号を出力する撮像部
と、
撮像された被写体が合焦している場合における前記被写体の被写体距離および撮像領域における第1の特徴量が紐づけられた被写体情報を、ズームレンズの倍率毎に記憶する記憶部と、
撮影している被写体が合焦出来ないと判断された場合には、撮影している撮像領域における第2の特徴量を取得するとともに、前記被写体情報のうち撮影している倍率における被写体情報の第1の特徴量と前記第2の特徴量との類似度を求め、前記類似度が最大となる第1の特徴量を有する被写体情報を選出する制御部と、を有し、
前記駆動部は、前記選出された被写体情報が有する被写体距離に基づいて、被写体が合焦状態となるように前記フォーカスレンズを移動させる撮像装置。 A drive unit for driving the focus lens;
An imaging unit that images an optical image formed through the focus lens and outputs an imaging signal;
A storage unit that stores subject information associated with the subject distance of the subject and the first feature amount in the imaging region when the captured subject is in focus, for each magnification of the zoom lens;
When it is determined that the subject being photographed cannot be focused, the second feature amount in the imaging region being photographed is acquired, and the subject information at the magnification at which the subject is photographed among the subject information is acquired. A controller that obtains the similarity between the feature quantity of 1 and the second feature quantity, and selects subject information having the first feature quantity that maximizes the similarity, and
The driving unit is an imaging apparatus that moves the focus lens so that a subject is in focus based on a subject distance included in the selected subject information.
前記駆動部は、前記選出された被写体情報に紐付けされている被写体距離に対して合焦状態とさせるように前記フォーカスレンズを移動させる請求項1に記載の撮像装置。 When a plurality of pieces of subject information having the minimum similarity are selected, the control unit determines a difference between a subject distance associated with each of the plurality of subject information and a subject distance of a subject currently being photographed. Select subject information with information on subject distance that minimizes
The imaging apparatus according to claim 1, wherein the driving unit moves the focus lens so as to be in a focused state with respect to a subject distance associated with the selected subject information.
前記記憶部は、前記撮像領域内に設定された複数の検波領域の内、算出された最大のコントラスト信号レベルと、最小のコントラスト信号レベルとのコントラスト信号レベルの差をレベル差閾値と比較して、比較結果に基づいて前記被写体の被写体情報に優先度を付与し、前記被写体情報に設定された前記優先度に従って前記被写体情報を記憶している請求項1に記載の撮像装置。 The imaging device
The storage unit compares a contrast signal level difference between the calculated maximum contrast signal level and the minimum contrast signal level among a plurality of detection areas set in the imaging area with a level difference threshold value. The imaging apparatus according to claim 1, wherein priority is given to subject information of the subject based on a comparison result, and the subject information is stored according to the priority set in the subject information.
撮影している被写体が合焦出来ないと判断された場合には、撮影している撮像領域における第2の特徴量を取得するとともに、前記被写体情報のうち撮影している倍率における被写体情報の第1の特徴量と前記第2の特徴量との類似度を求め、前記類似度が最大となる第1の特徴量を有する被写体情報を選出する制御部と、を有し、
前記選出された被写体情報における被写体距離に基づいて、被写体が合焦状態となるようにフォーカスレンズを移動させるフォーカス制御装置。 A storage unit that stores subject information associated with the subject distance of the subject and the first feature amount in the imaging region when the subject is in focus for each magnification of the zoom lens;
When it is determined that the subject being photographed cannot be focused, the second feature amount in the imaging region being photographed is acquired, and the subject information at the magnification at which the subject is photographed among the subject information is acquired. A controller that obtains the similarity between the feature quantity of 1 and the second feature quantity, and selects subject information having the first feature quantity that maximizes the similarity, and
A focus control device that moves the focus lens so that the subject is in focus based on the subject distance in the selected subject information.
撮影している被写体が合焦出来ないと判断された場合には、撮影している撮像領域における第2の特徴量を取得するとともに、前記被写体情報のうち撮影している倍率における被写体情報の第1の特徴量と前記第2の特徴量との類似度を求め、前記類似度が最大となる第1の特徴量を有する被写体情報を選出し、
前記選出された被写体情報における被写体距離に基づいて、被写体が合焦状態となるようにフォーカスレンズを移動させるフォーカス制御方法。 When the subject is in focus, subject information associated with the subject distance of the subject and the first feature amount in the imaging region is stored for each zoom lens magnification,
When it is determined that the subject being photographed cannot be focused, the second feature amount in the imaging region being photographed is acquired, and the subject information at the magnification at which the subject is photographed among the subject information is acquired. Finding the similarity between the feature quantity of 1 and the second feature quantity, selecting subject information having the first feature quantity that maximizes the similarity,
A focus control method for moving the focus lens so that the subject is in focus based on the subject distance in the selected subject information.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2015124361A JP2017009769A (en) | 2015-06-22 | 2015-06-22 | Imaging device, focus control device and imaging method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2015124361A JP2017009769A (en) | 2015-06-22 | 2015-06-22 | Imaging device, focus control device and imaging method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2017009769A true JP2017009769A (en) | 2017-01-12 |
Family
ID=57763254
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2015124361A Pending JP2017009769A (en) | 2015-06-22 | 2015-06-22 | Imaging device, focus control device and imaging method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2017009769A (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN115190242A (en) * | 2022-07-08 | 2022-10-14 | 杭州海康威视数字技术股份有限公司 | Focus triggering method and device |
| WO2024111366A1 (en) * | 2022-11-21 | 2024-05-30 | キヤノン株式会社 | Focusing device, observation device, inspection device, and focusing method |
Citations (12)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH02227787A (en) * | 1989-03-01 | 1990-09-10 | Hitachi Eng Co Ltd | Method and device for recognizing picture pattern |
| JPH1138309A (en) * | 1997-07-18 | 1999-02-12 | Kyocera Corp | Focus adjustment device |
| JP2002131241A (en) * | 2000-10-20 | 2002-05-09 | Matsushita Electric Ind Co Ltd | Defect inspection method and device |
| JP2004069953A (en) * | 2002-08-06 | 2004-03-04 | Olympus Corp | Camera |
| JP2008289004A (en) * | 2007-05-18 | 2008-11-27 | Casio Comput Co Ltd | Imaging apparatus and program thereof |
| JP2010068475A (en) * | 2008-09-12 | 2010-03-25 | Canon Inc | Imaging apparatus and method of reproducing image in the imaging apparatus |
| JP2010218057A (en) * | 2009-03-13 | 2010-09-30 | Toshiba Corp | Device, program, and method for collating character string |
| JP2010217614A (en) * | 2009-03-18 | 2010-09-30 | Sanyo Electric Co Ltd | Electronic camera |
| JP2012090103A (en) * | 2010-10-20 | 2012-05-10 | Ricoh Co Ltd | Imaging device, and method for displaying the number of captured images |
| JP2012150167A (en) * | 2011-01-17 | 2012-08-09 | Olympus Corp | Imaging device |
| JP2015014672A (en) * | 2013-07-04 | 2015-01-22 | 住友電気工業株式会社 | Camera control device, camera system, camera control method, and program |
| JP2015068917A (en) * | 2013-09-27 | 2015-04-13 | オリンパス株式会社 | Focus adjustment device |
-
2015
- 2015-06-22 JP JP2015124361A patent/JP2017009769A/en active Pending
Patent Citations (12)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH02227787A (en) * | 1989-03-01 | 1990-09-10 | Hitachi Eng Co Ltd | Method and device for recognizing picture pattern |
| JPH1138309A (en) * | 1997-07-18 | 1999-02-12 | Kyocera Corp | Focus adjustment device |
| JP2002131241A (en) * | 2000-10-20 | 2002-05-09 | Matsushita Electric Ind Co Ltd | Defect inspection method and device |
| JP2004069953A (en) * | 2002-08-06 | 2004-03-04 | Olympus Corp | Camera |
| JP2008289004A (en) * | 2007-05-18 | 2008-11-27 | Casio Comput Co Ltd | Imaging apparatus and program thereof |
| JP2010068475A (en) * | 2008-09-12 | 2010-03-25 | Canon Inc | Imaging apparatus and method of reproducing image in the imaging apparatus |
| JP2010218057A (en) * | 2009-03-13 | 2010-09-30 | Toshiba Corp | Device, program, and method for collating character string |
| JP2010217614A (en) * | 2009-03-18 | 2010-09-30 | Sanyo Electric Co Ltd | Electronic camera |
| JP2012090103A (en) * | 2010-10-20 | 2012-05-10 | Ricoh Co Ltd | Imaging device, and method for displaying the number of captured images |
| JP2012150167A (en) * | 2011-01-17 | 2012-08-09 | Olympus Corp | Imaging device |
| JP2015014672A (en) * | 2013-07-04 | 2015-01-22 | 住友電気工業株式会社 | Camera control device, camera system, camera control method, and program |
| JP2015068917A (en) * | 2013-09-27 | 2015-04-13 | オリンパス株式会社 | Focus adjustment device |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN115190242A (en) * | 2022-07-08 | 2022-10-14 | 杭州海康威视数字技术股份有限公司 | Focus triggering method and device |
| CN115190242B (en) * | 2022-07-08 | 2024-02-13 | 杭州海康威视数字技术股份有限公司 | Focus triggering method and device |
| WO2024111366A1 (en) * | 2022-11-21 | 2024-05-30 | キヤノン株式会社 | Focusing device, observation device, inspection device, and focusing method |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5048468B2 (en) | Imaging apparatus and imaging method thereof | |
| JP5820120B2 (en) | Imaging apparatus and control method thereof | |
| US10887515B2 (en) | Image capturing apparatus, image capturing method, and storage medium to generate a panoramic image having a high dynamic range | |
| JP6418879B2 (en) | Image processing apparatus, control method thereof, control program, and imaging apparatus | |
| US12114070B2 (en) | Image pickup apparatus, image pickup method, and non-transitory computer-readable storage medium for correcting influence caused by an effective F-number | |
| JP2009207119A (en) | Imaging apparatus and program | |
| US9244335B2 (en) | Imaging device and imaging method | |
| JP2012002951A (en) | Imaging device, method for detecting in-focus position and in-focus position detection program | |
| JP2013097082A (en) | Image signal processing device | |
| KR101728042B1 (en) | Digital photographing apparatus and control method thereof | |
| CN110383335A (en) | The background subtraction inputted in video content based on light stream and sensor | |
| JP6166848B2 (en) | Imaging device, imaging device body, and lens barrel | |
| US20190222754A1 (en) | Imaging apparatus, imaging method, and storage medium | |
| US20150334373A1 (en) | Image generating apparatus, imaging apparatus, and image generating method | |
| JP2010147786A (en) | Imaging device and image processing method | |
| JP4922768B2 (en) | Imaging device, focus automatic adjustment method | |
| JP2016197202A (en) | Focus adjustment device, control method and control program for the same, and imaging device | |
| KR101431536B1 (en) | Digital photographing apparatus and method for controlling the same | |
| JP6057608B2 (en) | Focus adjustment apparatus and control method thereof | |
| JP2017173480A (en) | Focus controller, imaging apparatus, and focus control method | |
| JP2017139646A (en) | Imaging apparatus | |
| KR101839473B1 (en) | Method for providing reference image and image photographing device thereof | |
| JP2017009769A (en) | Imaging device, focus control device and imaging method | |
| JP6246705B2 (en) | Focus control device, imaging device, and focus control method | |
| JP5278483B2 (en) | Imaging apparatus, imaging method, and imaging program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20170119 |
|
| RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20170125 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170828 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170828 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180418 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180508 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20181106 |