JP2002116372A - Automatic focusing device, its focusing method, and computer-readable storage medium stored with program for performing the method by computer - Google Patents
Automatic focusing device, its focusing method, and computer-readable storage medium stored with program for performing the method by computerInfo
- Publication number
- JP2002116372A JP2002116372A JP2000309800A JP2000309800A JP2002116372A JP 2002116372 A JP2002116372 A JP 2002116372A JP 2000309800 A JP2000309800 A JP 2000309800A JP 2000309800 A JP2000309800 A JP 2000309800A JP 2002116372 A JP2002116372 A JP 2002116372A
- Authority
- JP
- Japan
- Prior art keywords
- focus
- image
- point
- lens
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
Abstract
(57)【要約】
【課題】 簡単な構成で高速に合焦動作が可能な自動合
焦装置を提供すること。
【解決手段】 本発明にかかる自動合焦装置を適用した
デジタルカメラは、光軸方向に直交しかつ互いに直交す
る2方向に対して、各々異なる屈折率を有する補助レン
ズ101Bを含み、被写体を結像するためのレンズ系
と、撮像エリアの少なくとも一部にAFエリアが設定さ
れ、レンズ系により結像される被写体像を画像データに
変換するカラーイメージセンサー103と、AFエリア
の画像データのボケ特性を示す点像分布を求め、点像の
大きさおよび縦横差に基づいて、合焦点の方向と合焦点
までの距離を推定する距離方向算出部111と、合焦状
態にあるか否かを判断し、合焦状態にないと判断した場
合に、推定された合焦点の方向に合焦点までの距離だ
け、レンズ系またはカラーイメージセンサー103を移
動させる焦点調整駆動装置112とを備える。
(57) [Problem] To provide an automatic focusing device capable of performing a focusing operation at high speed with a simple configuration. SOLUTION: A digital camera to which the automatic focusing device according to the present invention is applied includes auxiliary lenses 101B each having a different refractive index in two directions orthogonal to the optical axis direction and orthogonal to each other, and forms an object. A lens system for imaging, an AF area set in at least a part of the imaging area, a color image sensor 103 for converting a subject image formed by the lens system into image data, and a blur characteristic of the image data in the AF area And a distance direction calculator 111 for estimating the direction of the focal point and the distance to the focal point based on the size and vertical / horizontal difference of the point image, and determining whether or not the object is in focus. If it is determined that the subject is not in focus, the focus adjustment driving device moves the lens system or the color image sensor 103 by the distance to the focus in the direction of the estimated focus. Device 112.
Description
【0001】[0001]
【発明の属する技術分野】この発明は、自動合焦装置、
その合焦方法、およびその方法をコンピュータで実行す
るためのプログラムが格納されているコンピュータが読
み取り可能な記録媒体に関し、詳細には、ビデオカメ
ラ、デジタルカメラ等の撮像素子を用いた画像入力機器
に適用される自動合焦装置、その合焦方法、およびその
方法をコンピュータで実行するためのプログラムが格納
されているコンピュータが読み取り可能な記録媒体に関
する。The present invention relates to an automatic focusing device,
Regarding the focusing method and a computer-readable recording medium storing a program for executing the method on a computer, in particular, video cameras, digital cameras and other image input devices using imaging devices The present invention relates to an automatic focusing device to be applied, a focusing method thereof, and a computer-readable recording medium storing a program for executing the method by a computer.
【0002】[0002]
【従来の技術】近年のデジタルカメラ市場の激化に伴
い、低コスト化が要求され部品点数の削減が重要課題と
なってきている。かかる環境の中、デジタルカメラの主
要部品の一つにマイクロプロセッサ(DSP含む)があ
るが、最近のマイクロプロセッサは低価格でありながら
デジタルカメラのコントローラとしての処理能力を十分
に上回る性能に至っている。このため、例えば、銀塩カ
メラの測距モジュール(AFセンサー)部品の機能を、
デジタルカメラでは撮像系+デジタル信号処理で代用す
る方向にある。デジタルカメラの合焦方式としては、主
なものに、「山登り法」や「相関法」があり、以下、
「山登り法」と「相関法」について説明する。2. Description of the Related Art With the intensification of the digital camera market in recent years, cost reduction has been required and reduction of the number of parts has become an important issue. In such an environment, a microprocessor (including a DSP) is one of the main components of a digital camera. However, recent microprocessors have achieved performance far exceeding the processing capability of a digital camera controller at a low price. . For this reason, for example, the function of a distance measuring module (AF sensor) component of a silver halide camera is
In a digital camera, an imaging system and digital signal processing tend to substitute. The main focus methods for digital cameras are the "hill climbing method" and the "correlation method."
The “hill climbing method” and the “correlation method” will be described.
【0003】一般に知られている「山登り法」による合
焦方式では、画像の取り込み位置でのAF評価値(画像
の高周波成分から算出)を得ることができるが、AF用
レンズ位置の前方または後方のいずれの方向に合焦点が
あるのか、また、どの程度の距離に合焦点が存在するの
かを検出することは困難である。このため、極大点を避
けて合焦位置を検出するには、レンズ移動範囲の全域の
AF評価値が必要となるため、この全域分の撮影回数が
必要となり、かつ合焦点位置まで戻す操作が加わり、正
確な焦点位置を得るまでに時間がかかるという問題があ
る。In the focusing method based on the generally known “hill climbing method”, an AF evaluation value (calculated from a high frequency component of an image) at an image capturing position can be obtained. It is difficult to detect in which direction the focal point is located and at what distance the focal point is located. Therefore, in order to detect the in-focus position while avoiding the local maximum point, the AF evaluation value of the entire lens moving range is required. In addition, there is a problem that it takes time to obtain an accurate focus position.
【0004】「相関法」には、自己相関法と相互相関法
がある。まず、自己相関法による合焦方式では、2つ以
上の異なる光束について、1つのフレームに撮像するも
のであるが、1フレーム分の取り込み画像からフォーカ
ス情報を得ることができる反面、同一データによる相関
であるため、自己相関係数の原点位置(合焦点)におい
て非常に高いピーク値を示す結果となる。したがって、
合焦点近傍ではこのピーク値によってAF情報が埋もれ
てしまうため、合焦点近傍では合焦点の検出が困難とな
り、合焦点近傍では他の方式によって合焦点を検出しな
ければならないという問題がある。The "correlation method" includes an autocorrelation method and a cross-correlation method. First, in the focusing method based on the autocorrelation method, two or more different light beams are imaged in one frame. However, while focus information can be obtained from a captured image of one frame, correlation based on the same data is obtained. Therefore, the result shows a very high peak value at the origin position (focal point) of the autocorrelation coefficient. Therefore,
Since the AF information is buried by the peak value near the focal point, it is difficult to detect the focal point near the focal point, and there is a problem that the focal point must be detected by another method near the focal point.
【0005】一方、相互相関法による合焦方式では、2
つの異なる光束について、それぞれのAFエリアについ
て撮像するが、これは2つの画像メモリを用意する必要
がある反面、自己相関法のような、原点位置に非常に高
いピーク値を生じることはない。このことから、合焦点
近傍から遠方までこのピーク値に埋もれることなくフォ
ーカス情報を得ることができる。しかしながら、相互相
関法では、フォーカス情報を得るためにAF用絞り板で
2つの異なる光束を用意する必要があり、撮影時にはこ
のAF用絞り板は不必要になるといった問題がある。ま
た、AF用絞り板は開口部サイズが固定であり、イメー
ジセンサーで受光する光量を最適化することが困難であ
るという問題がある。On the other hand, in the focusing method based on the cross-correlation method, 2
Although imaging is performed for each of the AF areas for two different light beams, it is necessary to prepare two image memories, but this does not cause a very high peak value at the origin position unlike the autocorrelation method. From this, focus information can be obtained from the vicinity of the focal point to the distance without being buried in this peak value. However, in the cross-correlation method, it is necessary to prepare two different light beams with an AF diaphragm to obtain focus information, and there is a problem that the AF diaphragm is not required at the time of photographing. In addition, the aperture plate for AF has a fixed opening size, and it is difficult to optimize the amount of light received by the image sensor.
【0006】また、点像分布を用いて合焦点を検出する
方法も提案されている。例えば、特開平05−0226
43号公報に記載された「オートフォーカス装置」は、
フォーカシングレンズと、光軸に対し直交する2軸にお
ける屈折率が異なる補助レンズと、上記フォーカシング
レンズと上記補助レンズを介して、被写体を撮像する撮
像手段と、この撮像手段から出力される画像信号を記憶
する記憶手段と、この記憶手段に記憶された1フレーム
分の画像信号のうち、上記補助レンズの屈折率の異なる
2軸に対応する画像信号を取り出し、これらの画像信号
のレベル差を検出して上記フォーカシングレンズの位置
情報を検出する位置検出手段と、上記位置検出手段によ
って検出された位置情報に基づいて、上記フォーカシン
グレンズを移動させるレンズ駆動制御装置とを備えたも
のである。すなわち、特開平05−022643号公報
に記載された「オートフォーカス装置」は、補助レンズ
として円柱レンズを利用することにより、水平方向の合
焦点と垂直方向の合焦点の位置が異なるようにすること
で、水平方向高周波成分と垂直方向高周波成分の差分を
検出して合焦点の方向を推定している。[0006] A method of detecting a focal point using a point image distribution has also been proposed. For example, JP-A-05-0226
The "autofocus device" described in JP-A-43-
A focusing lens, an auxiliary lens having different refractive indices in two axes orthogonal to the optical axis, imaging means for imaging a subject via the focusing lens and the auxiliary lens, and an image signal output from the imaging means. A storage unit for storing, and among the image signals for one frame stored in the storage unit, image signals corresponding to two axes having different refractive indexes of the auxiliary lens are extracted, and a level difference between these image signals is detected. Position detecting means for detecting the position information of the focusing lens, and a lens drive control device for moving the focusing lens based on the position information detected by the position detecting means. That is, the "autofocus device" described in Japanese Patent Application Laid-Open No. 05-022643 uses a cylindrical lens as an auxiliary lens so that the position of the horizontal focal point and the position of the vertical focal point are different. Then, the difference between the horizontal high-frequency component and the vertical high-frequency component is detected to estimate the direction of the focal point.
【0007】さらに、被写体光の色収差を利用して合焦
点を検出する方法も提案されている。例えば、特開平0
6−138362号公報に記載された「オートフォーカ
ス装置」は、所定の色収差を備えたレンズと、このレン
ズを介して、被写体を撮像する撮像手段と、この撮像手
段から出力される色信号の振幅値を検出する振幅値検出
手段と、この振幅値検出手段の検出結果に基づいて、上
記レンズで上記被写体を撮像した際の焦点位置情報を検
出する焦点位置情報検出手段と、上記色信号に上記レン
ズの点像分布関数の逆関数をたたみ込むことにより、上
記色信号を修正し、上記色信号の撮像に供した撮像面か
ら所定距離だけ離れた仮想面に形成される上記被写体の
像を再現する手段とを備えたものである。すなわち、特
開平06−138362号公報に記載された「オートフ
ォーカス装置」は、焦点レンズの色収差を利用すること
により、RGB各色の合焦点が光軸方向に異なるように
することで、撮像したRGB各色の高周波成分の大小関
係から合焦点の方向を推定している。Further, there has been proposed a method of detecting a focal point using chromatic aberration of subject light. For example, JP
An “autofocus device” described in Japanese Patent Application Laid-Open No. 6-138362 includes a lens having a predetermined chromatic aberration, an imaging unit that captures an image of a subject via the lens, and an amplitude of a color signal output from the imaging unit. Amplitude value detection means for detecting a value; focus position information detection means for detecting focus position information when the subject is imaged by the lens based on the detection result of the amplitude value detection means; The color signal is corrected by convolving the inverse function of the point spread function of the lens to reproduce the image of the subject formed on a virtual plane separated by a predetermined distance from the imaging plane used for imaging the color signal. Means for performing the operation. That is, the “autofocus device” described in Japanese Patent Application Laid-Open No. H06-138362 makes use of chromatic aberration of a focus lens so that the focal point of each of the RGB colors is different in the optical axis direction, so that the captured RGB image is obtained. The direction of the focal point is estimated from the magnitude relationship between the high-frequency components of each color.
【0008】[0008]
【発明が解決しようとする課題】しかしながら、上述し
た特開平05−022643号公報や特開平06−13
8362号公報に記載された「オートフォーカス装置」
にあっては、合焦点までの距離の検出を行っていないこ
とから、合焦点に到達するまでに何度も合焦のための撮
像が必要となり、上述した「山登り法」と同様に正確な
焦点位置を得るまでに時間がかかるという問題がある。However, Japanese Patent Application Laid-Open No. 05-022643 and Japanese Patent Application Laid-Open No.
"Autofocus device" described in JP 8362
In, since the distance to the focal point is not detected, it is necessary to perform imaging for focusing many times before reaching the focal point. There is a problem that it takes time to obtain a focus position.
【0009】本発明は、上記に鑑みてなされたものであ
り、簡単な構成で高速な合焦動作が可能な自動合焦装
置、その合焦方法、およびその方法をコンピュータで実
行するためのプログラムが格納されているコンピュータ
が読み取り可能な記録媒体を提供することを目的とす
る。The present invention has been made in view of the above, and has an automatic focusing apparatus capable of performing a high-speed focusing operation with a simple configuration, a focusing method thereof, and a program for executing the method by a computer. It is an object of the present invention to provide a computer-readable recording medium in which is stored.
【0010】[0010]
【課題を解決するための手段】上記課題を解決するため
に、請求項1にかかる発明は、光軸方向に直交しかつ互
いに直交する2方向に対して、各々異なる屈折率を有す
る補助レンズを含み、被写体を結像するためのレンズ系
と、撮像エリアの少なくとも一部にAFエリアが設定さ
れ、前記レンズ系により結像される被写体像を画像デー
タに変換する撮像素子と、前記AFエリアの画像データ
のボケ特性を示す点像分布を求め、点像の大きさおよび
縦横差に基づいて、合焦点の方向と合焦点までの距離を
推定する合焦位置推定手段と、前記合焦位置推定手段で
推定された前記合焦点の距離に基づき、合焦状態にある
か否かを判断する合焦状態判別手段と、前記合焦状態判
別手段で合焦状態にないと判断された場合に、前記合焦
位置推定手段で推定された前記合焦点の方向に前記合焦
点までの距離だけ、前記レンズ系または前記撮像素子を
移動させる駆動手段と、を備えたものである。In order to solve the above-mentioned problems, the invention according to claim 1 is to provide an auxiliary lens having different refractive indexes in two directions orthogonal to the optical axis direction and mutually orthogonal. A lens system for forming an image of a subject, an image sensor for setting an AF area in at least a part of an imaging area, and converting a subject image formed by the lens system into image data; A focus position estimating means for obtaining a point image distribution indicating a blur characteristic of the image data and estimating a direction of a focal point and a distance to the focal point based on a size and a vertical / horizontal difference of the point image; Based on the distance of the focal point estimated by the means, a focused state determining means for determining whether or not the in-focus state, and when it is determined that the in-focus state is not in the focused state, The focus position estimating means Been by the distance to the focus point in the direction of the focus point, in which and a driving means for moving the lens system or the image pickup device.
【0011】上記発明によれば、レンズ系は、光軸方向
に直交しかつ互いに直交する2方向に対して、各々異な
る屈折率を有する補助レンズを含み、被写体を結像し、
撮像素子は、撮像エリアの少なくとも一部にAFエリア
が設定され、レンズ系により結像される被写体像を画像
データに変換し、合焦位置推定手段は、AFエリアの画
像データのボケ特性を示す点像分布を求め、点像の大き
さおよび縦横差に基づいて、合焦点の方向と合焦点まで
の距離を推定し、合焦状態判別手段は、合焦位置推定手
段で推定された合焦点の距離に基づき、合焦状態にある
か否かを判断し、駆動手段は、合焦状態判別手段で合焦
状態にないと判断された場合に、合焦位置推定手段で推
定された合焦点の方向にかつ合焦点までの距離だけ、レ
ンズ系または撮像素子を移動させる。According to the above invention, the lens system includes the auxiliary lenses each having a different refractive index in each of two directions orthogonal to the optical axis direction and orthogonal to each other.
The imaging device has an AF area set in at least a part of the imaging area, converts a subject image formed by the lens system into image data, and the focus position estimating means indicates a blur characteristic of the image data in the AF area. The point image distribution is obtained, and the direction of the focal point and the distance to the focal point are estimated based on the size and vertical / horizontal difference of the point image. The in-focus state determining unit determines the focal point estimated by the in-focus position estimating unit. The drive means determines whether or not the camera is in focus on the basis of the distance. If the focus state determination means determines that the camera is not in focus, the drive means determines the in-focus state estimated by the focus position estimation means. The lens system or the image sensor is moved in the direction of and the distance to the focal point.
【0012】また、請求項2にかかる発明は、請求項1
にかかる発明において、前記合焦位置推定手段は、前記
AFエリアの画像データを2次元フーリエ変換して周波
数領域の振幅と位相に変換し、全周波数領域の位相をゼ
ロに置き換えた後、2次元逆フーリエ変換を行って点像
分布を算出するものである。上記発明によれば、合焦位
置推定手段は、AFエリアの画像データを2次元フーリ
エ変換して周波数領域の振幅と位相に変換し、全周波数
領域の位相をゼロに置き換えた後、2次元逆フーリエ変
換を行って点像分布を算出する。[0012] The invention according to claim 2 is based on claim 1.
In the invention according to the invention, the in-focus position estimating means converts the image data of the AF area into two-dimensional Fourier transform into amplitude and phase in a frequency domain, and replaces all phases in a frequency domain with zero. The point image distribution is calculated by performing an inverse Fourier transform. According to the above invention, the in-focus position estimating means converts the image data of the AF area into two-dimensional Fourier transform into amplitude and phase in the frequency domain, replaces all phases in the frequency domain with zero, and then performs two-dimensional inverse A point image distribution is calculated by performing a Fourier transform.
【0013】また、請求項3にかかる発明は、請求項1
または請求項2にかかる発明において、前記合焦位置推
定手段は、前記点像分布の原点ピーク値に基づいて閾値
を算出し、当該閾値に基づく点像分布の断面のX方向半
径とY方向半径の差を、前記点像の縦横差として算出す
るものである。上記発明によれば、合焦位置推定手段
は、点像分布の原点ピーク値に基づいて閾値を算出し、
当該閾値に基づく点像分布の断面のX方向半径とY方向
半径の差を、点像の縦横差として算出する。[0013] The invention according to claim 3 is based on claim 1.
Alternatively, in the invention according to claim 2, the in-focus position estimating means calculates a threshold based on an origin peak value of the point image distribution, and calculates an X-direction radius and a Y-direction radius of a cross section of the point image distribution based on the threshold. Is calculated as the vertical and horizontal difference of the point image. According to the above invention, the focus position estimating means calculates the threshold value based on the origin peak value of the point image distribution,
The difference between the X-direction radius and the Y-direction radius of the cross section of the point image distribution based on the threshold value is calculated as the vertical and horizontal difference of the point image.
【0014】また、請求項4にかかる発明は、請求項1
〜請求項3のいずれか1つにかかる発明において、前記
撮像素子は、カラー撮像素子からなり、前記合焦位置推
定手段は、前記カラー撮像素子から出力されるAFエリ
アのカラー画像データの輝度情報に基づいて点像分布を
算出するものである。上記発明において、撮像素子は、
カラー撮像素子からなり、合焦位置推定手段は、カラー
撮像素子から出力されるAFエリアのカラー画像データ
の輝度情報に基づいて点像分布を算出する。[0014] The invention according to claim 4 is based on claim 1.
The image pickup device according to any one of claims 1 to 3, wherein the image pickup device comprises a color image pickup device, and the in-focus position estimating means comprises luminance information of color image data of an AF area output from the color image pickup device. Is used to calculate the point image distribution. In the above invention, the imaging element is
The focus position estimating means includes a color image sensor, and calculates a point image distribution based on luminance information of color image data in the AF area output from the color image sensor.
【0015】また、請求項5にかかる発明は、請求項1
〜請求項4のいずれか1つにかかる発明において、前記
補助レンズは、光軸方向に直交しかつ互いに直交する2
方向に対して、各々相反する屈折率を有する円柱状の凹
凸レンズであることとした。上記発明によれば、補助レ
ンズとして、光軸方向に直交しかつ互いに直交する2方
向に対して、各々相反する屈折率を有する円柱状の凹凸
レンズを使用する。[0015] The invention according to claim 5 is based on claim 1.
In the invention according to any one of the first to fourth aspects, the auxiliary lens is orthogonal to the optical axis direction and orthogonal to each other.
The concave and convex lenses were cylindrical in shape and had mutually opposite refractive indices. According to the above invention, as the auxiliary lens, a columnar concave / convex lens having mutually opposite refractive indices in two directions orthogonal to the optical axis direction and orthogonal to each other is used.
【0016】また、請求項6にかかる発明は、請求項1
〜請求項5のいずれか1つにかかる発明において、さら
に、前記補助レンズを移動させるための補助レンズ駆動
手段を備え、前記補助レンズ駆動手段は、AFのための
撮像では、前記補助レンズを光路上に配置する一方、通
常の撮像では、前記補助レンズを光路上から退避させる
ものである。上記発明によれば、補助レンズ駆動手段
は、AFのための撮像では、補助レンズを光路上に配置
する一方、通常の撮像では、補助レンズを光路上から退
避させる。The invention according to claim 6 is based on claim 1.
The invention according to any one of claims 1 to 5, further comprising an auxiliary lens driving unit for moving the auxiliary lens, wherein the auxiliary lens driving unit is configured to light the auxiliary lens in AF imaging. On the other hand, in normal imaging, the auxiliary lens is retracted from the optical path while being arranged on the road. According to the above-described invention, the auxiliary lens driving unit arranges the auxiliary lens on the optical path in AF imaging, while retracts the auxiliary lens from the optical path in normal imaging.
【0017】また、請求項7にかかる発明は、レンズ系
または撮像素子を移動させて自動合焦動作を行う自動合
焦装置の合焦方法において、光軸方向に直交しかつ互い
に直交する2方向に対して、各々異なる屈折率を有する
補助レンズを含む前記レンズ系により、被写体光を結像
するステップと、前記撮像素子上に結像される被写体像
のAFエリアの画像データのボケ特性を示す点像分布を
求め、点像の大きさおよび縦横差に基づいて、合焦点の
方向と合焦点までの距離を推定する推定ステップと、前
記推定された合焦点までの距離に基づいて合焦状態にあ
るか否かを判断する合焦判定ステップと、前記合焦判定
ステップで、合焦状態にないと判断された場合に、前記
推定された前記合焦点の方向に前記合焦点までの距離だ
け、前記レンズ系または前記撮像素子を移動させる移動
ステップと、を含むものである。According to a seventh aspect of the present invention, there is provided a focusing method of an automatic focusing apparatus for performing an automatic focusing operation by moving a lens system or an image pickup device, wherein the two directions are orthogonal to the optical axis direction and orthogonal to each other. FIG. 4 shows a step of forming subject light by the lens system including auxiliary lenses having different refractive indexes, and a blur characteristic of image data of an AF area of a subject image formed on the image sensor. Estimating the point image distribution, estimating the direction of the focal point and the distance to the focal point based on the size and vertical / horizontal difference of the point image, and focusing on the basis of the estimated distance to the focal point. A focus determination step of determining whether or not there is, and in the focus determination step, when it is determined that the subject is not in focus, only the distance to the focus in the direction of the estimated focus, , The lens system The other is intended to include, a moving step of moving the imaging element.
【0018】上記発明によれば、各々異なる屈折率を有
する補助レンズを含む前記レンズ系により、被写体光を
結像し、撮像素子上に結像される被写体像のAFエリア
の画像データのボケ特性を示す点像分布を求め、点像の
大きさおよび縦横差に基づいて、合焦点の方向と合焦点
までの距離を推定し、推定された合焦点までの距離に基
づいて合焦状態にあるか否かを判断し、合焦状態にない
と判断された場合に、推定された前記合焦点の方向に前
記合焦点までの距離だけ、レンズ系または撮像素子を移
動させる。According to the present invention, the lens system including the auxiliary lenses each having a different refractive index forms an image of the subject light, and the blur characteristics of the image data of the AF area of the subject image formed on the image sensor. Is obtained, the direction of the focal point and the distance to the focal point are estimated based on the size and vertical / horizontal difference of the point image, and the in-focus state is obtained based on the estimated distance to the focal point. Then, if it is determined that the subject is not in focus, the lens system or the imaging device is moved in the direction of the estimated focus by the distance to the focus.
【0019】また、請求項8にかかる発明は、レンズ系
または撮像素子を移動させて自動合焦動作を行う自動合
焦装置の合焦方法において、光軸方向に直交しかつ互い
に直交する2方向に対して、各々異なる屈折率を有する
補助レンズを光路上に配置するステップと、前記補助レ
ンズを含む前記レンズ系により、被写体光を結像するス
テップと、前記撮像素子上に結像される被写体像のAF
エリアの画像データのボケ特性を示す点像分布を求め、
点像の大きさおよび縦横差に基づいて、合焦点の方向と
合焦点までの距離を推定する推定ステップと、前記推定
された合焦点までの距離に基づいて合焦状態にあるか否
かを判断する合焦判定ステップと、前記合焦判定ステッ
プで、合焦状態にないと判断された場合に、前記推定さ
れた前記合焦点の方向に前記合焦点までの距離だけ、前
記レンズ系または前記撮像素子を移動させる移動ステッ
プと、前記合焦判定ステップで、合焦状態にあると判断
された場合に、前記補助レンズを光路上から退避させ、
通常の撮影を行うステップと、を含むものである。According to an eighth aspect of the present invention, there is provided a focusing method for an automatic focusing device for performing an automatic focusing operation by moving a lens system or an image pickup device, wherein the two directions are orthogonal to the optical axis direction and orthogonal to each other. For arranging auxiliary lenses each having a different refractive index on the optical path, forming subject light by the lens system including the auxiliary lens, and forming a subject formed on the image sensor. Image AF
Find a point image distribution indicating the blur characteristics of the image data of the area,
An estimation step of estimating the direction of the focal point and the distance to the focal point based on the size and the vertical / horizontal difference of the point image, and determining whether the object is in focus based on the estimated distance to the focal point. In the in-focus determination step of determining, and in the in-focus determination step, when it is determined that the in-focus state is not in focus, only the distance to the in-focus point in the direction of the estimated in-focus point, the lens system or the A moving step of moving the image sensor, and in the focusing determination step, when it is determined that the in-focus state, the auxiliary lens is retracted from the optical path,
Performing a normal photographing.
【0020】上記発明によれば、光軸方向に直交しかつ
互いに直交する2方向に対して、各々異なる屈折率を有
する補助レンズを光路上に配置し、補助レンズを含むレ
ンズ系により、被写体光を結像し、撮像素子上に結像さ
れる被写体像のAFエリアの画像データのボケ特性を示
す点像分布を求め、点像の大きさおよび縦横差に基づい
て、合焦点の方向と合焦点までの距離を推定し、推定さ
れた合焦点までの距離に基づいて合焦状態にあるか否か
を判断し、合焦状態にないと判断された場合に、推定さ
れた前記合焦点の方向に合焦点までの距離だけ、レンズ
系または撮像素子を移動させ、他方、合焦状態にあると
判断された場合に、補助レンズを光路上から退避させ、
通常の撮影を行う。According to the above invention, auxiliary lenses having different refractive indexes are arranged on the optical path in two directions orthogonal to the optical axis direction and orthogonal to each other, and the object light is controlled by the lens system including the auxiliary lens. Is obtained, and a point spread indicating the blur characteristics of the image data of the AF area of the subject image formed on the image sensor is obtained. Estimate the distance to the focal point, determine whether or not the in-focus state based on the estimated distance to the focal point, if it is determined that the in-focus state, if the estimated in-focus point In the direction, the lens system or the image sensor is moved by the distance to the focal point, and when it is determined that the lens is in focus, the auxiliary lens is retracted from the optical path,
Perform normal shooting.
【0021】また、請求項9にかかる発明は、請求項7
または請求項8にかかる発明において、前記推定ステッ
プでは、前記AFエリアの画像データを2次元フーリエ
変換して周波数領域の振幅と位相に変換し、全周波数領
域の位相をゼロに置き換えた後、2次元逆フーリエ変換
を行って点像分布を算出するものである。上記発明によ
れば、AFエリアの画像データを2次元フーリエ変換し
て周波数領域の振幅と位相に変換し、全周波数領域の位
相をゼロに置き換えた後、2次元逆フーリエ変換を行っ
て点像分布を算出する。The invention according to claim 9 is the invention according to claim 7.
Alternatively, in the invention according to claim 8, in the estimating step, the image data of the AF area is subjected to a two-dimensional Fourier transform to convert the image data into an amplitude and a phase in a frequency domain, and after replacing the phase in the entire frequency domain with zero, 2 The point image distribution is calculated by performing a dimensional inverse Fourier transform. According to the above invention, the image data in the AF area is subjected to two-dimensional Fourier transform to convert the image data into the amplitude and phase in the frequency domain, and the phases in all frequency domains are replaced with zero. Calculate the distribution.
【0022】また、請求項10にかかる発明は、請求項
7〜請求項9のいずれか1つにかかる発明において、前
記推定ステップでは、前記点像分布の原点ピーク値に基
づいて閾値を算出し、当該閾値に基づく点像分布の断面
のX方向半径とY方向半径の差を、前記点像の縦横差と
して算出するものである。上記発明によれば、点像分布
の原点ピーク値に基づいて閾値を算出し、当該閾値に基
づく点像分布の断面のX方向半径とY方向半径の差を、
点像の縦横差として算出する。According to a tenth aspect of the present invention, in the invention according to any one of the seventh to ninth aspects, in the estimating step, a threshold value is calculated based on an origin peak value of the point image distribution. The difference between the X-direction radius and the Y-direction radius of the cross section of the point image distribution based on the threshold value is calculated as the vertical and horizontal difference of the point image. According to the invention described above, a threshold value is calculated based on the peak value of the origin of the point image distribution, and the difference between the X-direction radius and the Y-direction radius of the cross section of the point image distribution based on the threshold value is calculated as
It is calculated as the vertical and horizontal difference of the point image.
【0023】また、請求項11にかかる発明は、請求項
7〜請求項10のいずれか1つにかかる発明において、
前記撮像素子は、カラー撮像素子からなり、前記推定ス
テップでは、前記カラー撮像素子から出力されるAFエ
リアのカラー画像データの輝度情報に基づいて点像分布
を算出するものである。上記発明によれば、カラー撮像
素子から出力されるAFエリアのカラー画像データの輝
度情報に基づいて点像分布を算出する。The invention according to claim 11 is the invention according to any one of claims 7 to 10, wherein
The image sensor is a color image sensor, and in the estimating step, a point image distribution is calculated based on luminance information of color image data of an AF area output from the color image sensor. According to the above invention, the point image distribution is calculated based on the luminance information of the color image data of the AF area output from the color image sensor.
【0024】また、請求項12にかかる発明は、請求項
7〜請求項11のいずれか1つにかかる発明において、
前記補助レンズは、光軸方向に直交しかつ互いに直交す
る2方向に対して、各々相反する屈折率を有する円柱状
の凹凸レンズであることとした。上記発明によれば、補
助レンズとして、光軸方向に直交しかつ互いに直交する
2方向に対して、各々相反する屈折率を有する円柱状の
凹凸レンズを使用する。The invention according to claim 12 is the invention according to any one of claims 7 to 11, wherein
The auxiliary lens is a cylindrical concavo-convex lens having mutually opposite refractive indices in two directions orthogonal to the optical axis direction and orthogonal to each other. According to the above invention, as the auxiliary lens, a columnar concave / convex lens having mutually opposite refractive indices in two directions orthogonal to the optical axis direction and orthogonal to each other is used.
【0025】また、請求項13にかかる発明は、請求項
7〜請求項12のいずれか1つに記載の発明の各ステッ
プをコンピュータに実行させるためのプログラムを記録
したものである。上記発明によれば、コンピュータで記
録媒体に格納されたプログラムを実行することにより、
請求項7〜請求項12のいずれか1つに記載の発明の各
ステップを実現する。According to a thirteenth aspect of the present invention, a program for causing a computer to execute each step of the invention according to any one of the seventh to twelfth aspects is recorded. According to the above invention, by executing a program stored in a recording medium by a computer,
Each step of the invention described in any one of claims 7 to 12 is realized.
【0026】[0026]
【発明の実施の形態】以下に添付図面を参照して、この
発明に係る自動合焦装置をデジタルカメラに適用した好
適な実施の形態を、(発明の原理)、(本発明のデジタ
ルカメラ)の順に詳細に説明する。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Referring to the accompanying drawings, a preferred embodiment in which an automatic focusing apparatus according to the present invention is applied to a digital camera will be described (Principle of the invention), (Digital camera of the present invention). Will be described in order.
【0027】(発明の原理)まず、本発明の原理を図1
〜図6を参照して説明する。図1は本発明の原理を説明
するための説明図、図2は補助レンズの構成を示す図、
図3はカラーイメージセンサーのAFエリアを説明する
ための説明図、図4は焦点の方向および距離の判別方法
を説明するための説明図、図5はセンサ位置と点像半径
の関係を説明するための図、図6はセンサ位置と点像の
縦横差の関係を説明するための図を示す。(Principle of the Invention) First, the principle of the present invention is shown in FIG.
This will be described with reference to FIGS. FIG. 1 is an explanatory diagram for explaining the principle of the present invention, FIG. 2 is a diagram showing a configuration of an auxiliary lens,
3 is an explanatory diagram for explaining an AF area of the color image sensor, FIG. 4 is an explanatory diagram for explaining a method of determining a focus direction and a distance, and FIG. 5 is a diagram illustrating a relationship between a sensor position and a point image radius. FIG. 6 is a diagram for explaining the relationship between the sensor position and the vertical / horizontal difference of the point image.
【0028】図1は、レンズ系およびその光束を模式的
に示しており、同図に示すA点は、後ピンとなる位置、
B点は合焦となる位置、C点は前ピンとなる位置を示し
ている。同図において、(A)は、縦方向(Y方向)か
らみた光束で前ピン(C点)となる場合を示し、(B)
は横方向(X方向)から見た光束で後ピン(A点)とな
る場合を示している。FIG. 1 schematically shows a lens system and its luminous flux. A point shown in FIG.
Point B indicates a focus position, and point C indicates a front focus position. In the same figure, (A) shows a case where the light flux viewed from the vertical direction (Y direction) becomes the front focus (point C), and (B)
Indicates a case where the light flux viewed from the lateral direction (X direction) is the rear focus (point A).
【0029】また、図1において、101Aは焦点レン
ズ、101Bは補助レンズを示している。図2は、図1
の補助レンズ101Bを示している。補助レンズ101
Bは、光軸方向に直交しかつ互いに直交する2方向(X
方向とY方向)に対して、各々相反する屈折率を有する
円柱状の凹凸レンズで構成されている。補助レンズ10
1Bを介挿することによって、焦点レンズ101Aの現
位置における水平成分(X方向の成分)と垂直成分(Y
方向の成分)の画像データが相違することになる。In FIG. 1, reference numeral 101A denotes a focus lens, and 101B denotes an auxiliary lens. FIG. 2 shows FIG.
Of the auxiliary lens 101B is shown. Auxiliary lens 101
B are two directions (X) orthogonal to the optical axis direction and orthogonal to each other.
(Y-direction and Y-direction). Auxiliary lens 10
1B, the horizontal component (X-direction component) and the vertical component (Y component) at the current position of the focus lens 101A are provided.
The image data of the direction component) is different.
【0030】図1において、左側から右方向に入射した
光は、焦点レンズ101Aおよび補助レンズ101Bを
通り撮像絞り(不図示)を通過した後、カラーイメージ
センサー(不図示)で受光される。この場合にフォーカ
ス情報として必要とされるのは、撮影者が合焦したいエ
リア(AFエリア)の撮像データであり、フレーム全て
のデータは必要なく、AFエリアの画像データのみを転
送する。In FIG. 1, light incident from the left to the right passes through a focusing lens 101A and an auxiliary lens 101B, passes through an imaging stop (not shown), and is received by a color image sensor (not shown). In this case, what is required as the focus information is the imaging data of the area (AF area) to which the photographer wants to focus, and the data of all the frames is not necessary, and only the image data of the AF area is transferred.
【0031】図3はカラーイメージセンサーのAFエリ
アを示す図であり、同図に示す如く、AFエリアは、カ
ラーイメージセンサーのフレーム内の光学系の光軸の中
心位置に設定される。ここでは、AFエリアをフレーム
の中心位置に配置した場合を示したが、このAFエリア
は任意に設定可能となっている。本発明ではカラーイメ
ージセンサーが画素のランダムアクセスが可能に構成さ
れているので、転送対象がAFエリアのデータのみとな
り、転送時間が大幅に短縮される。FIG. 3 is a view showing an AF area of the color image sensor. As shown in FIG. 3, the AF area is set at the center position of the optical axis of the optical system in the frame of the color image sensor. Here, the case where the AF area is arranged at the center position of the frame is shown, but this AF area can be set arbitrarily. In the present invention, since the color image sensor is configured to enable random access of pixels, the transfer target is only the data of the AF area, and the transfer time is greatly reduced.
【0032】この後、カラーイメージセンサーの色フィ
ルタにより色毎に分離されたRGBの画像データについ
て、各色のAFエリアの画像データの点像分布係数を求
める。図4は、合焦点の方向判別を説明するための図を
示しており、焦点レンズ101Aを移動させたときの各
レンズ位置で真円の被写体を撮像した場合の画像データ
等を示す。同図において、(A)は、焦点レンズ101
Aのみを通過した場合のAFエリアの画像(輝度情
報)、(B)は、焦点レンズ101Aおよび補助レンズ
101Bを通過した場合のAFエリアの画像(輝度情
報)、(C)は焦点レンズ101Aおよび補助レンズ1
01Bを通過した場合の画像(輝度情報)の点像分布形
状を示しており、前ピン時(図1のA点)、合焦時(図
1のB点)、後ピン時(図1のC点)の場合を示してい
る。Thereafter, for the RGB image data separated for each color by the color filter of the color image sensor, a point spread coefficient of the image data of the AF area of each color is obtained. FIG. 4 is a diagram for explaining the determination of the direction of the focal point, and shows image data and the like when a perfectly circular subject is imaged at each lens position when the focus lens 101A is moved. In the figure, (A) shows a focus lens 101.
The image (luminance information) of the AF area when passing only A, (B) is the image (luminance information) of the AF area when passing through the focusing lens 101A and the auxiliary lens 101B, and (C) is the focusing lens 101A and Auxiliary lens 1
1B shows a point image distribution shape of an image (luminance information) when the image passes through 01B, and is in front focus (point A in FIG. 1), in focus (point B in FIG. 1), and after focus (point B in FIG. 1). (Point C).
【0033】同図(A)に示すように、補助レンズ10
1Bがない場合には、前ピン時、合焦時、後ピン時のい
ずれの場合も画像は円となる。これに対して、同図
(B)に示すように、補助レンズ101Bがある場合に
は、前ピン時では横長円、合焦時では円、後ピン時では
縦長円となる。As shown in FIG.
If there is no 1B, the image will be a circle in any of front focus, focus, and back focus. On the other hand, as shown in FIG. 3B, when the auxiliary lens 101B is provided, the shape becomes a horizontally long circle at the time of front focus, a circle at the time of focus, and a vertically long circle at the time of focus back.
【0034】図6は、センサ位置と点像の縦横差(X方
向半径−Y方向半径)の関係を示す図である。同図にお
いて、横軸はカラーイメージセンサー位置(またはレン
ズ位置)、縦軸は点像の縦横差を示す。焦点レンズ10
1Aおよび補助レンズ101Bを通過した光束は、縦方
向から見た光束と横方向から見た光束とで、合焦位置を
真の合焦点(焦点レンズのみによる合焦点)から各々前
後にずらしてあるため、上述したように、真の合焦点以
外では点像分布が縦または横方向に長い形状となる。そ
こで、AFエリア画像の点像分布を求め、点像半径の縦
横差(X方向半径−Y方向半径)から合焦点のある方向
(前ピンまたは後ピン)が推定できる。FIG. 6 is a diagram showing the relationship between the sensor position and the vertical / horizontal difference (radius in X direction−radius in Y direction) of the point image. In the figure, the horizontal axis represents the color image sensor position (or lens position), and the vertical axis represents the vertical and horizontal difference of the point image. Focus lens 10
The luminous fluxes that have passed through 1A and the auxiliary lens 101B are shifted from the true in-focus position (the focal point only by the focusing lens) forward and backward between the light flux viewed from the vertical direction and the light flux viewed from the horizontal direction. Therefore, as described above, the point image distribution has a shape that is long in the vertical or horizontal direction except for the true focal point. Therefore, the point image distribution of the AF area image is obtained, and the direction (the front focus or the rear focus) with the focal point can be estimated from the vertical / horizontal difference of the point image radius (radius in the X direction−radius in the Y direction).
【0035】図5は、センサ位置と点像半径の関係を示
す図である。同図において、横軸はカラーイメージセン
サー位置(またはレンズ位置)、縦軸は点像半径を示
す。同図に示すように、点像半径は、絞り開口径が大き
い方が大きくなり、合焦位置で最小となる。また、点像
半径は、絞りの度合いに比例して大きさが変化する。FIG. 5 is a diagram showing the relationship between the sensor position and the point image radius. In the figure, the horizontal axis indicates the color image sensor position (or lens position), and the vertical axis indicates the point image radius. As shown in the figure, the point image radius increases as the aperture opening diameter increases, and becomes minimum at the in-focus position. Further, the point image radius changes in size in proportion to the degree of stop.
【0036】そこで、絞り開口径と絞り面受光面距離の
情報、円形近似した場合の点像半径R、および点像半径
の縦横差(X方向半径−Y方向半径)から合焦点近傍ま
での距離を推定することができる。Therefore, information on the aperture diameter of the stop and the distance of the light receiving surface of the stop surface, the point image radius R when the circle is approximated, and the distance from the vertical / horizontal difference (radius in the X direction−radius in the Y direction) of the point image radius to the distance from the vicinity of the focal point. Can be estimated.
【0037】(本発明のデジタルカメラ)図7は、本実
施の形態にかかるデジタルカメラのAF処理系の構成図
を示す。図7において、図1と同一部分は同一符号を付
してある。同図において、101Aは焦点レンズを示
し、フォーカス対象の被写体の被写体像をカラーイメー
ジセンサー103上に結像するためのものである。10
1Bは補助レンズを示し、AFにおいて、焦点レンズ1
01Aの移動方向と移動量を得るためのレンズであり、
被写体像の水平成分および垂直成分に対して積極的なボ
ケを付与するための手段である。102は撮像絞りを示
し、焦点レンズ101Aや補助レンズ101Bの後側に
配置され、焦点レンズ101Aや補助レンズ101Bを
通過する光束(光量)を制限するためのものである。(Digital Camera of the Present Invention) FIG. 7 shows a configuration diagram of an AF processing system of the digital camera according to the present embodiment. 7, the same parts as those in FIG. 1 are denoted by the same reference numerals. In the figure, reference numeral 101A denotes a focus lens for forming a subject image of a subject to be focused on the color image sensor 103. 10
Reference numeral 1B denotes an auxiliary lens.
01A is a lens for obtaining the moving direction and the moving amount of 01A,
This is a means for positively blurring the horizontal and vertical components of the subject image. Reference numeral 102 denotes an imaging stop, which is disposed behind the focus lens 101A and the auxiliary lens 101B, and serves to limit a light flux (light amount) passing through the focus lens 101A and the auxiliary lens 101B.
【0038】103は結像される被写体像を電気信号に
変換して画像データとして出力するカラーCCD等から
なるカラーイメージセンサー(原色タイプ)を示す。こ
のカラーイメージセンサー103は、画素のランダムア
クセスが可能となっており、画像フレーム内の任意のエ
リアの画像データが転送可能となっている。これら焦点
レンズ101A、補助レンズ101B、撮像絞り10
2、およびカラーイメージセンサー103は、撮像用光
学系を構成する。104は撮像絞り102の絞りを調整
して自動露出制御を行う自動露出制御部を示す。Reference numeral 103 denotes a color image sensor (primary color type) comprising a color CCD or the like which converts an image of a subject to be formed into an electric signal and outputs it as image data. The color image sensor 103 can perform random access of pixels, and can transfer image data of an arbitrary area in an image frame. These focus lens 101A, auxiliary lens 101B, imaging diaphragm 10
2, and the color image sensor 103 constitute an imaging optical system. An automatic exposure control unit 104 performs automatic exposure control by adjusting the aperture of the imaging aperture 102.
【0039】115は、撮像した画像データを輝度情報
に変換する輝度変換部を示す。105はAFのための撮
像で撮像された画像フレーム内のAFエリアの輝度情報
(画像データ)を格納するAFエリア画像データメモリ
を示す。106は、AFエリア画像データメモリ105
に格納されたAFエリアの輝度情報(画像データ)に2
次元窓関数を乗算する窓関数乗算部を示す。107は、
窓関数乗算部106で2次元窓関数が乗算された輝度情
報を2次元フーリエ変換する2次元FFT部を示す。1
08は、2次元FFT部107でフーリエ変換されたデ
ータの位相操作を行う位相操作部を示す。109は、位
相操作部108で位相操作されたデータを、2次元逆フ
ーリエ変換して点像分布係数を算出する2次元IFFT
部を示す。Reference numeral 115 denotes a brightness conversion unit for converting the captured image data into brightness information. Reference numeral 105 denotes an AF area image data memory that stores luminance information (image data) of an AF area in an image frame captured by the imaging for AF. Reference numeral 106 denotes an AF area image data memory 105
In the brightness information (image data) of the AF area stored in
5 shows a window function multiplication unit that multiplies a dimensional window function. 107 is
2 shows a two-dimensional FFT unit that performs two-dimensional Fourier transform on luminance information multiplied by a two-dimensional window function by a window function multiplication unit 106. 1
A phase operation unit 08 performs a phase operation on the data that has been Fourier transformed by the two-dimensional FFT unit 107. Reference numeral 109 denotes a two-dimensional IFFT for performing a two-dimensional inverse Fourier transform on the data subjected to the phase operation in the phase operation unit 108 to calculate a point spread coefficient.
Indicates a part.
【0040】110は2次元IFFT部109で算出さ
れた点像分布係数を格納する点像分布係数メモリを示
す。111は、点像分布係数メモリ110に格納された
点像分布係数に基づき、カラーイメージセンサー103
の合焦位置までの方向と距離を算出する距離方向算出部
を示す。Numeral 110 denotes a point spread coefficient memory for storing the point spread coefficients calculated by the two-dimensional IFFT unit 109. 111 is a color image sensor 103 based on the point spread coefficient stored in the point spread coefficient memory 110.
4 shows a distance direction calculation unit that calculates the direction and the distance to the in-focus position.
【0041】112は距離方向算出部111の演算結果
に基づき、カラーイメージセンサー103を前後に移動
させる焦点調整駆動装置を示し、113は、AF時と通
常の撮影時とでレンズの切り替えを行う撮影/AF切替
装置を示す。114は通常の撮影の場合に、撮像された
1フレーム分の画像データが各色毎に格納されるフレー
ム用画像メモリを示す。Reference numeral 112 denotes a focus adjustment driving device for moving the color image sensor 103 back and forth based on the calculation result of the distance direction calculation unit 111. Reference numeral 113 denotes a photographing device for switching a lens between AF and normal photographing. / AF switching device. Reference numeral 114 denotes a frame image memory in which image data for one frame that has been imaged is stored for each color in normal shooting.
【0042】なお、ここでは、カラーイメージセンサー
103を光軸方向に移動させて焦点調整を行う構成を示
したが、カラーイメージセンサー103を移動させる代
わりに、焦点レンズ101Aを移動させて焦点調整を行
う構成を採用することにしても良い。Although the focus adjustment is performed by moving the color image sensor 103 in the optical axis direction, the focus adjustment is performed by moving the focus lens 101A instead of moving the color image sensor 103. A configuration for performing the operation may be adopted.
【0043】つぎに、上記図7のデジタルカメラのAF
動作および撮影動作を図8〜図10のフローチャートに
従って、図11〜図16を参照しつつ説明する。図8は
AF動作および撮影動作を説明するためのフローチャー
ト、図9は図8のAF動作の点像半径の算出処理を詳細
に説明するためのフローチャート、図10は図8のAF
動作の焦点方向および焦点距離の算出処理を詳細に説明
するためのフローチャートを示す。Next, the AF of the digital camera shown in FIG.
The operation and the photographing operation will be described with reference to FIGS. 11 to 16 in accordance with the flowcharts of FIGS. FIG. 8 is a flowchart for explaining the AF operation and the photographing operation, FIG. 9 is a flowchart for explaining the point image radius calculation processing of the AF operation in FIG. 8 in detail, and FIG. 10 is the AF in FIG.
4 is a flowchart for explaining in detail a focal direction and a focal length calculation process of the operation.
【0044】図11は2次元ハミング窓関数を説明する
ための説明図、図12は合焦時の点像分布係数を説明す
るための説明図、図13はピンボケ時の点像分布係数を
説明するための説明図、図14は点像半径の算出方法を
説明するための説明図、図15は後ピン時の焦点距離L
を説明するための説明図、図16は前ピン時の焦点距離
Lを説明するための説明図を示す。FIG. 11 is an explanatory view for explaining a two-dimensional Hamming window function, FIG. 12 is an explanatory view for explaining a point spread coefficient at the time of focusing, and FIG. 13 is an explanatory view of a point spread coefficient at the time of out-of-focus. FIG. 14 is an explanatory diagram for explaining a method of calculating a point image radius, and FIG. 15 is a focal length L at the time of back focus.
FIG. 16 is an explanatory diagram for explaining the focal length L at the time of front focus.
【0045】図8のフローチャートにおいて、まず、図
7に示すデジタルカメラでは、操作者の操作によって、
図示しないシャッタボタンが半押しの状態になると、デ
ジタルカメラの撮像用光学系はAFセンサーとして作動
する。そして、AFセンサー動作時には、撮影/AF切
替装置113は、補助レンズ101Bを移動させて光軸
上に配置する(ステップS101)。また、露出制御部
104は、光学系の撮像絞り102を使って、外部から
イメージセンサーに入射する被写体の光量を常に最適と
なるように露出制御する。この状態で、AFのための撮
影を行い(ステップS102)、焦点レンズ101Aお
よび補助レンズ101Bを介した被写体像をカラーイメ
ージセンサー103に取り込んで、カラーイメージセン
サー103上のAFエリア(図2参照)のカラー画像デ
ータが輝度変換部115に入力される。輝度変換部11
5は、AFエリアのカラー画像データを輝度情報に変換
して、AFエリア画像データメモリ105に転送し、A
Fエリア画像データメモリ105にはAFエリアの輝度
情報(画像データ)が格納される(ステップS10
3)。In the flow chart of FIG. 8, first, in the digital camera shown in FIG.
When a shutter button (not shown) is half-pressed, the imaging optical system of the digital camera operates as an AF sensor. Then, when the AF sensor is operating, the photographing / AF switching device 113 moves the auxiliary lens 101B and arranges it on the optical axis (step S101). Further, the exposure control unit 104 controls the exposure using the imaging stop 102 of the optical system so that the light amount of the subject incident on the image sensor from the outside is always optimized. In this state, photographing for AF is performed (step S102), and the subject image via the focus lens 101A and the auxiliary lens 101B is taken into the color image sensor 103, and the AF area on the color image sensor 103 (see FIG. 2) Is input to the luminance conversion unit 115. Brightness converter 11
5 converts the color image data in the AF area into luminance information and transfers the luminance information to the AF area image data memory 105;
Brightness information (image data) of the AF area is stored in the F area image data memory 105 (step S10).
3).
【0046】次に、AFエリア用の画像メモリ105に
格納された輝度情報に基づいて、点像半径Rを算出する
(ステップS104〜S108)。ここでは、点像半径R
を算出する方法として、以下ではフーリエ変換を使用し
て算出する方法を説明する。Next, a point image radius R is calculated based on the luminance information stored in the image memory 105 for the AF area.
(Steps S104 to S108). Here, the point image radius R
In the following, a method of calculating using the Fourier transform will be described.
【0047】まず、AFエリア画像データメモリ105
に格納されたAFエリアの画像データに基づいて、点像
分布係数を算出する。具体的には、窓関数乗算部106
は、下式(1)に示す如く、AFエリアの画像データf
0(u,v)について、画像境界の高周波成分の影響を低減
するために、例えば、図11に示すようなハミング窓等
の2次元窓関数w(u,v)を乗じる(ステップS10
4)。First, the AF area image data memory 105
The point image distribution coefficient is calculated based on the image data of the AF area stored in. Specifically, the window function multiplication unit 106
Is the image data f of the AF area as shown in the following equation (1).
In order to reduce the influence of high frequency components on the image boundary, 0 (u, v) is multiplied by a two-dimensional window function w (u, v) such as a Hamming window as shown in FIG. 11 (step S10).
4).
【0048】 f (u,v)=w(u,v)・f0(u,v)・・・(1) 但し、w(u,v)=w(u)・w(v) w(u)=0.54+0.46・cos(2πu/N) w(v)=0.54+0.46・cos(2πv/N) N:画像サイズF (u, v) = w (u, v) · f 0 (u, v) (1) where w (u, v) = w (u) · w (v) w ( u) = 0.54 + 0.46 · cos (2πu / N) w (v) = 0.54 + 0.46 · cos (2πv / N) N: Image size
【0049】次に、2次元FFT部107は、このf
(u,v)について2次元の離散フーリエ変換DFT(実
際には高速フーリエ変換FFTを行う)を行い、周波数
領域のデータF(U,V)を得る(ステップS105)。Next, the two-dimensional FFT unit 107
A two-dimensional discrete Fourier transform DFT (actually, a fast Fourier transform FFT is performed) is performed on (u, v) to obtain frequency domain data F (U, V) (step S105).
【0050】そして、位相操作部108は、周波数領域
での点像分布係数を複素数H(U,V)とした場合に、こ
のH(U,V)を求めるために、周波数領域にある画像デ
ータF(U,V)の各位相をゼロに置き換える(ステップ
S106)。すなわち、下式(2)、(3)に示す如
く、F(U,V)の振幅をH(U,V)の実部に、またH(U,
V)の虚部をゼロにする。When the point spread coefficient in the frequency domain is a complex number H (U, V), the phase operation unit 108 calculates the image data in the frequency domain in order to obtain the H (U, V). Each phase of F (U, V) is replaced with zero (step S106). That is, as shown in the following equations (2) and (3), the amplitude of F (U, V) is set to the real part of H (U, V) and H (U, V).
The imaginary part of V) is set to zero.
【0051】 Re{H(U,V)}=|F(U,V)|・・・(2) Im{H(U,V)}=0 ・・・(3) 但し、|F(U,V)|=√[ Re{F(U,V)}2+ Im
{F(U,V)}2]Re {H (U, V)} = | F (U, V) | (2) Im {H (U, V)} = 0 (3) where | F (U , V) | = {[Re {F (U, V)} 2 + Im
{F (U, V)} 2 ]
【0052】2次元IFFT部109は、この結果に対
して、2次元の逆離散フーリエ変換IDFT(実際には
逆高速フーリエ変換IFFTを行う)を行うことによ
り、点像分布係数h(u,v)を算出する(ステップS1
07)。そして、算出された点像分布係数h(u,v)
は、点像分布係数メモリ110に格納される。The two-dimensional IFFT unit 109 performs a two-dimensional inverse discrete Fourier transform IDFT (actually, performs an inverse fast Fourier transform IFFT) on the result to obtain a point image distribution coefficient h (u, v). ) (Step S1)
07). Then, the calculated point spread coefficient h (u, v)
Are stored in the point spread coefficient memory 110.
【0053】そして、距離方向算出部111は、点像分
布係数h(u,v)に基づき、点像半径Rを算出する(ス
テップS108)。ここで、点像半径Rの具体的な算出
方法を図9のフローチャートを参照して説明する。な
お、点像分布係数h(u,v)は原点においてピーク値を
示す。合焦画像から得た点像分布係数の一例を図11
に、合焦画像から得た点像分布係数の一例を図12に、
ボケ画像から得た点像分布係数の一例を図13に示す。
図11および図12に示すように、合焦画像の点像分布
関数の分布はインパルス形状となり、ボケ画像の点像分
布関数の分布はボケの程度に応じて緩やかな円錐形状と
なる。Then, the distance direction calculation unit 111 calculates the point image radius R based on the point image distribution coefficient h (u, v) (step S108). Here, a specific method of calculating the point image radius R will be described with reference to the flowchart of FIG. The point spread coefficient h (u, v) shows a peak value at the origin. FIG. 11 shows an example of a point spread coefficient obtained from a focused image.
FIG. 12 shows an example of a point spread coefficient obtained from a focused image.
FIG. 13 shows an example of the point spread coefficient obtained from the blurred image.
As shown in FIGS. 11 and 12, the distribution of the point spread function of the focused image has an impulse shape, and the distribution of the point spread function of the blurred image has a gentle conical shape according to the degree of blur.
【0054】図9において、例えばインパルス形状や円
錐形状の原点ピーク値を入力し(ステップS201)、
原点ピーク値に基づいて断面しきい値を算出し(ステッ
プS202)、例えば図14に示すように、算出した断
面しきい値で点像分布係数をスライスした点像分布係数
の断面積(断面画素数)Sを算出する(ステップS20
3)。具体的には、図14(A)に示すように、断面部
にあたる画素数をカウントすることにより断面積Sを算
出する。また、この際、断面部の水平方向(X方向)お
よび垂直方向(Y方向)の画素数をカウントすることに
より、点像のX方向半径およびY方向半径を算出する。
同図に示す例では、断面積Sは「52」となっている。
そして、算出した断面積Sに基づき、下式(4)の演算
を行うことにより点像半径Rを算出し(ステップS20
4)、算出した点像半径Rを出力する(ステップS20
5)。図14(B)に示す例では、点像半径Rは「4」
となっている。In FIG. 9, the origin peak value of, for example, an impulse shape or a conical shape is input (step S201).
A sectional threshold is calculated based on the peak value of the origin (step S202). For example, as shown in FIG. 14, the sectional area of the point spread coefficient obtained by slicing the point spread coefficient by the calculated sectional threshold (cross sectional pixel) Calculate S) (Step S20)
3). Specifically, as shown in FIG. 14A, the cross-sectional area S is calculated by counting the number of pixels corresponding to the cross-sectional portion. Also, at this time, the X direction radius and the Y direction radius of the point image are calculated by counting the number of pixels in the horizontal direction (X direction) and the vertical direction (Y direction) of the cross section.
In the example shown in the figure, the cross-sectional area S is “52”.
Then, a point image radius R is calculated by performing the calculation of the following equation (4) based on the calculated cross-sectional area S (step S20).
4) Output the calculated point image radius R (Step S20)
5). In the example shown in FIG. 14B, the point image radius R is “4”.
It has become.
【0055】R=√(S/π) ・・・(4) 但し、π:円周率R = √ (S / π) (4) where π: pi
【0056】つづいて、図8において、距離方向算出部
111は、各色毎の点像半径Rを算出した後は、焦点方
向の判別と焦点距離Lの算出を行う(ステップS10
9)。図10のフローチャートを参照して、焦点方向の
判別と焦点距離の算出方法を具体的に説明する。ここで
は、G色画像の焦点位置を目標焦点距離に選んだ場合に
ついて説明する。Subsequently, in FIG. 8, after calculating the point image radius R for each color, the distance direction calculator 111 determines the focal direction and calculates the focal length L (step S10).
9). The method of determining the focal direction and calculating the focal length will be specifically described with reference to the flowchart of FIG. Here, the case where the focal position of the G color image is selected as the target focal length will be described.
【0057】距離方向算出部111では、G色画像(輝
度情報)の点像半径Rgの大きさと点像の縦横差(X方
向半径とY方向半径の差)から、合焦点までの方向と距
離を推定する。The distance direction calculator 111 calculates the direction and distance to the focal point based on the size of the point image radius Rg of the G color image (luminance information) and the vertical / horizontal difference of the point image (the difference between the radius in the X direction and the radius in the Y direction). Is estimated.
【0058】具体的には、図10において、点像の縦方
向半径X、点像の横方向半径Y、G色の点像半径Rg、
絞り開口部Ro、絞り受光面距離Loの入力がなされる
と(ステップS301)、合焦位置を求めるべく、点像
の縦方向半径Xと点像の横方向半径Yとの大きさを比較
し(ステップS302)、点像の縦方向半径X<点像の
横方向半径Yの場合には、ステップS303に移行し
て、前ピンと推定する。そして、焦点距離Lを、絞り開
口径Ro、絞り受光面距離Loの情報、G色画像の点像
半径Rg、点像の縦横差(点像の縦方向半径X−点像の
横方向半径Y)に基づき、下式(5)により、焦点距離
L(カラーイメージセンサー103のG色の合焦点まで
の距離)を算出する(ステップS306)。図16は前
ピン時の焦点距離Lの一例を示す図である。Specifically, in FIG. 10, the vertical radius X of the point image, the horizontal radius Y of the point image, the point image radius Rg of the G color,
When the stop aperture Ro and the stop light receiving surface distance Lo are input (step S301), the size of the vertical radius X of the point image and the size of the horizontal radius Y of the point image are compared in order to obtain a focus position. (Step S302) If the vertical radius X of the point image is smaller than the horizontal radius Y of the point image, the process shifts to Step S303 to estimate the front focus. Then, the focal length L is defined as the aperture opening diameter Ro, the information on the aperture light receiving surface distance Lo, the point image radius Rg of the G color image, the vertical / horizontal difference of the point image (the vertical radius X of the point image−the horizontal radius Y of the point image Y). ), The focal length L (the distance to the focal point of the color G of the color image sensor 103) is calculated by the following equation (5) (step S306). FIG. 16 is a diagram illustrating an example of the focal length L at the time of front focus.
【0059】 L=Lo・Rg/(Ro+Rg)+K(X−Y)・・・(5) 但し:Kは定数L = Lo · Rg / (Ro + Rg) + K (XY) (5) where K is a constant
【0060】また、ステップS302において、X=Y
の場合には、ステップS304に移行して、合焦と推定
する。そして、焦点距離L=0と推定する(ステップS
307)。In step S302, X = Y
In the case of, the process moves to step S304, and it is estimated that focus is achieved. Then, it is estimated that the focal length L = 0 (step S
307).
【0061】また、ステップS302において、点像の
縦方向半径X>点像の横方向半径Yの場合には、ステッ
プS305に移行して、後ピンと推定する。そして、焦
点距離Lを、絞り開口径Ro、絞り受光面距離Loの情
報、G色画像の点像半径Rg、点像の縦横差(点像の縦
方向半径X−点像の横方向半径Y)に基づき、下式
(6)により、焦点距離L(カラーイメージセンサー1
03のG色の合焦点までの距離)を算出する(ステップ
S308)。図15は、後ピン時の焦点距離Lの一例を
示す図である。If it is determined in step S302 that the vertical radius X of the point image is larger than the horizontal radius Y of the point image, the process proceeds to step S305 to estimate the back focus. Then, the focal length L is defined as the aperture opening diameter Ro, the information on the aperture light receiving surface distance Lo, the point image radius Rg of the G color image, the vertical / horizontal difference of the point image (the vertical radius X of the point image−the horizontal radius Y of the point image Y). ), The focal length L (color image sensor 1)
The distance to the focal point of the 03 G color is calculated (step S308). FIG. 15 is a diagram illustrating an example of the focal length L at the time of back focus.
【0062】 L=Lo・Rg/(Ro−Rg)+K(X−Y)・・・(6) 但し:Kは定数L = Lo · Rg / (Ro−Rg) + K (XY) (6) where K is a constant
【0063】そして、算出した焦点距離Lを出力する
(ステップS309)。つづいて、処理は、図8のステ
ップS110に移行し、焦点調整駆動装置112は、算
出した焦点距離Lに基づき、合焦状態にあるか否か(カ
ラーイメージセンサー103の受光位置と焦点レンズ1
01Aの合焦点が一致したか否か)を判断し、合焦状態
でない場合には、カラーイメージセンサー103(また
は焦点レンズ101A)を合焦位置(算出した焦点位置
方向に焦点距離Lだけ)に速やかに移動した(ステップ
S111)後、ステップS102に戻り、真の合焦位置
(合焦状態)に到達したかを判断するためにもう一度同
じAF処理を繰り返して、合焦状態にあるか否かを判断
し、合焦状態となるまで同じAF処理(ステップS10
2〜ステップS111)を繰り返す。Then, the calculated focal length L is output (step S309). Subsequently, the process proceeds to step S110 in FIG. 8, and the focus adjustment driving device 112 determines whether or not the subject is in focus based on the calculated focal length L (the light receiving position of the color image sensor 103 and the focus lens 1).
It is determined whether or not the focal point of the focal point 01A coincides.) If not, the color image sensor 103 (or the focal lens 101A) is moved to the focal position (the focal length L in the calculated focal position direction). After quickly moving (step S111), the process returns to step S102, and repeats the same AF process again to determine whether the camera has reached the true focus position (focused state). Is determined, and the same AF processing is performed until the focusing state is achieved (step S10).
2 to step S111) are repeated.
【0064】他方、ステップS110で合焦であると判
断した場合には、撮影/AF切替装置113は、補助レ
ンズ101Bを光路上から退避させて(ステップS11
2)、被写体の撮影の準備完了となり、シャッターボタ
ンの全押しの待ちの状態になる。この後、シャッターボ
タンが全押しされると、それに連動して一定時間シャッ
ターが開き、被写体からの光をカラーイメージセンサー
103で受光する。そして、イメージセンサー103か
ら画像データはそれぞれのフレーム用画像メモリ(R/
G/B)114に転送され、これらのデータはホワイト
バランス等の画像処理の後、保存またはモニタ表示され
る(ステップS113)。On the other hand, if it is determined in step S110 that the subject is in focus, the photographing / AF switching device 113 retracts the auxiliary lens 101B from the optical path (step S11).
2) The preparation for photographing the subject is completed, and a state where the shutter button is fully pressed is awaited. Thereafter, when the shutter button is fully pressed, the shutter is opened for a certain period of time in conjunction therewith, and light from the subject is received by the color image sensor 103. Then, the image data from the image sensor 103 is stored in each frame image memory (R /
G / B) 114, and these data are stored or displayed on a monitor after image processing such as white balance (step S113).
【0065】なお、AF動作の回数については、カラー
イメージセンサー103(または焦点レンズ101A)
の移動開始位置が合焦位置の近傍である場合には、ほぼ
ピントが合っている画像からフォーカス情報を得るため
に、点像分布係数は図12に示すような鋭いピークを示
し、一回のAF動作で合焦位置の許容範囲内に到達す
る。他方、カラーイメージセンサー103(または焦点
レンズ101A)の移動開始位置が合焦位置から遠い場
合には、ボケた画像からフォーカス情報を得るために、
点像分布係数は図13に示すような緩やかなピークを示
し、複数回のAF動作で合焦位置の許容範囲内に到達す
る。The number of AF operations is determined by the color image sensor 103 (or the focusing lens 101A).
In the case where the movement start position is near the in-focus position, the point spread coefficient shows a sharp peak as shown in FIG. The focus position is reached within the allowable range by the AF operation. On the other hand, when the movement start position of the color image sensor 103 (or the focus lens 101A) is far from the focus position, in order to obtain focus information from a blurred image,
The point spread coefficient shows a gradual peak as shown in FIG. 13, and reaches the allowable range of the focus position by a plurality of AF operations.
【0066】以上説明したように、本実施の形態におい
ては、AFのための撮像では、光軸方向に直交しかつ互
いに直交する2方向(X方向とY方向)に対して、各々
異なる屈折率を有する焦点レンズ101Aおよび補助レ
ンズ101Bを介して、カラーイメージセンサー103
上に結像される被写体像のAFエリアの画像データのボ
ケ特性を示す点像分布を求め、点像の大きさおよび縦横
差(X方向半径とY方向半径の差)に基づいて、合焦点
の方向と合焦点までの距離を推定し、推定された合焦点
までの距離に基づいて合焦状態にあるか否かを判断し、
合焦状態にないと判断された場合に、推定された合焦点
の方向に合焦点までの距離だけ、レンズ系またはカラー
イメージセンサー103を移動させ、他方、合焦状態に
あると判断された場合に、補助レンズ101Bを光路上
から退避させ、通常の撮影を行うこととしたので、一回
のAFのための撮像のみで焦点位置までの距離と方向の
情報を得ることができ、簡単な構成で高速な合焦動作を
行うことが可能となる。As described above, in the present embodiment, in imaging for AF, different refractive indexes are used in two directions (X direction and Y direction) orthogonal to the optical axis direction and orthogonal to each other. Image sensor 103 via a focusing lens 101A having an
A point image distribution indicating the blur characteristic of the image data of the AF area of the subject image formed above is obtained, and the focal point is determined based on the size of the point image and the vertical / horizontal difference (the difference between the radius in the X direction and the radius in the Y direction). The direction and the distance to the focal point are estimated, and it is determined whether or not the subject is in focus based on the estimated distance to the focal point,
When it is determined that the camera is not in focus, the lens system or the color image sensor 103 is moved in the direction of the estimated focus by the distance to the focus, while it is determined that the camera is in focus In addition, since the auxiliary lens 101B is retracted from the optical path and normal photographing is performed, it is possible to obtain information on the distance to the focal position and the direction only by performing imaging for one AF operation, and a simple configuration. And a high-speed focusing operation can be performed.
【0067】また、本実施の形態においては、AFエリ
アの画像データを2次元フーリエ変換して周波数領域の
振幅と位相に変換し、全周波数領域の位相をゼロに置き
換えた後、2次元逆フーリエ変換を行って点像分布を算
出することとしたので、DFT(離散フーリエ変換)や
FFT(高速フーリエ変換)が適用でき、DSP等のデ
ジタル集積回路に適している。In this embodiment, the image data in the AF area is subjected to two-dimensional Fourier transform to convert the data into amplitude and phase in the frequency domain, and the phases in all frequency domains are replaced with zero. Since the point image distribution is calculated by performing the transformation, DFT (Discrete Fourier Transform) or FFT (Fast Fourier Transform) can be applied, which is suitable for a digital integrated circuit such as a DSP.
【0068】また、本実施の形態においては、点像分布
の原点ピーク値に基づいて閾値を算出し、当該閾値に基
づく点像分布の断面のX方向半径とY方向半径の差を、
点像の縦横差として算出することとしたので、点像分布
の立体データを平面データに変換でき、点像分布の縦横
差を推定するための演算量を低減することが可能とな
る。In the present embodiment, a threshold value is calculated based on the peak value of the origin of the point image distribution, and the difference between the X-direction radius and the Y-direction radius of the cross section of the point image distribution based on the threshold value is calculated.
Since the vertical and horizontal difference of the point image is calculated, the stereoscopic data of the point image distribution can be converted into plane data, and the amount of calculation for estimating the vertical and horizontal difference of the point image distribution can be reduced.
【0069】また、本実施の形態においては、カラーイ
メージセンサー103から出力されるAFエリアのカラ
ー画像データの輝度情報に基づいて点像分布を算出する
こととしたので、各色別に点像分布を求める場合に比し
て、少ない演算回数でAF動作を行うことが可能とな
る。In this embodiment, the point image distribution is calculated based on the luminance information of the color image data in the AF area output from the color image sensor 103. Therefore, the point image distribution is obtained for each color. The AF operation can be performed with a smaller number of calculations than in the case.
【0070】また、本実施の形態においては、補助レン
ズとして、光軸方向に直交しかつ互いに直交する2方向
(X方向とY方向)に対して、各々相反する屈折率を有
する円柱状の凹凸レンズを使用することとしたので、2
方向(X方向とY方向)に対して各々異なる屈折率の補
助レンズを簡単な構成で実現することが可能となる。In the present embodiment, as the auxiliary lens, cylindrical irregularities having mutually opposite refractive indexes in two directions (X direction and Y direction) orthogonal to the optical axis direction and mutually orthogonal. Since I decided to use a lens,
Auxiliary lenses having different refractive indexes in the directions (X direction and Y direction) can be realized with a simple configuration.
【0071】上述の実施の形態のデジタルカメラの合焦
方法は、予め用意されたプログラムをパーソナルコンピ
ュータや、ワークステーション等のコンピュータで実行
することにしても良い。このプログラムは、ハードディ
スク、フロッピー(登録商標)ディスク、CD−RO
M、MO、DVD等のコンピュータが読取可能な記録媒
体から読み出されることによって実行される。また、こ
のプログラムは、上記記録媒体を介して、また伝送媒体
として、インターネット等のネットワークを介して配布
することができる。In the focusing method of the digital camera according to the above-described embodiment, a prepared program may be executed by a computer such as a personal computer or a workstation. This program includes a hard disk, floppy (registered trademark) disk, CD-RO
It is executed by being read from a computer-readable recording medium such as M, MO, and DVD. Further, this program can be distributed via the recording medium and as a transmission medium via a network such as the Internet.
【0072】尚、本発明は上記した実施の形態に限定さ
れるものではなく、発明の要旨を変更しない範囲で適宜
変更可能である。It should be noted that the present invention is not limited to the above-described embodiment, but can be appropriately changed without changing the gist of the invention.
【0073】例えば、上記した実施の形態では、デジタ
ルカメラを例示して説明したが、本発明は原理上、任意
の焦点レンズ位置において一回の撮像のみで合焦位置ま
での距離と方向の情報を得ることができ、追跡サーボと
して利用することが可能であるので、デジタルビデオカ
メラにも適用することが可能である。For example, in the above-described embodiment, a digital camera has been described as an example. However, in principle, the present invention provides information on the distance to the focus position and the direction to the in-focus position only once at an arbitrary focus lens position. Can be obtained, and can be used as a tracking servo. Therefore, the present invention can be applied to a digital video camera.
【0074】また、上記した実施の形態では、焦点制御
のための点像分布係数を求めるのに2次元の離散フーリ
エ変換(DFT)または高速フーリエ変換(FFT)に
よるデジタル信号処理を適用することにしたが、これら
の演算はカメラコントローラ用プロセッサの余剰能力を
利用したり、またはIPP(Image Pre Processor)等の
集積回路内に演算回路を設けて行うことにしても良い。
また、窓関数については計算を省くためにw(u,v)の
一部をテーブルとして記憶しておき、係数乗算のみを行
うことにしても良い。In the above-described embodiment, digital signal processing by two-dimensional discrete Fourier transform (DFT) or fast Fourier transform (FFT) is applied to obtain a point spread coefficient for focus control. However, these calculations may be performed by utilizing the surplus capacity of the camera controller processor or by providing a calculation circuit in an integrated circuit such as an IPP (Image Pre Processor).
For the window function, a part of w (u, v) may be stored as a table in order to save the calculation, and only the coefficient multiplication may be performed.
【0075】[0075]
【発明の効果】以上説明したように、請求項1にかかる
自動合焦装置によれば、レンズ系は、光軸方向に直交し
かつ互いに直交する2方向に対して、各々異なる屈折率
を有する補助レンズを含み、被写体を結像し、撮像素子
は、撮像エリアの少なくとも一部にAFエリアが設定さ
れ、レンズ系により結像される被写体像を画像データに
変換し、合焦位置推定手段は、AFエリアの画像データ
のボケ特性を示す点像分布を求め、点像の大きさおよび
縦横差に基づいて、合焦点の方向と合焦点までの距離を
推定し、合焦状態判別手段は、合焦位置推定手段で推定
された合焦点の距離に基づき、合焦状態にあるか否かを
判断し、駆動手段は、合焦状態判別手段で合焦状態にな
いと判断された場合に、合焦位置推定手段で推定された
合焦点の方向にかつ合焦点までの距離だけ、レンズ系ま
たは撮像素子を移動させることとしたので、一回のAF
のための撮像のみで焦点位置までの距離と方向の情報を
得ることができ、簡単な構成で高速な合焦動作を行うこ
とが可能となる。As described above, according to the automatic focusing apparatus of the first aspect, the lens system has different refractive indexes in two directions orthogonal to the optical axis direction and orthogonal to each other. The image pickup device includes an auxiliary lens, forms an image of a subject, the image pickup device has an AF area set in at least a part of the image pickup area, converts a subject image formed by a lens system into image data, and A point image distribution indicating a blur characteristic of the image data of the AF area is obtained, and a direction of a focal point and a distance to the focal point are estimated based on the size and the vertical / horizontal difference of the point image. Based on the distance of the focal point estimated by the in-focus position estimating means, it is determined whether or not the camera is in focus, and when the driving means determines that the in-focus state is not in focus by the in-focus state determining means, In the direction of the focal point estimated by the focus position estimating means Distance to the focal point, so it was decided to move the lens system or the imaging device, a single AF
The information on the distance to the focal position and the direction can be obtained only by imaging for the purpose, and a high-speed focusing operation can be performed with a simple configuration.
【0076】また、請求項2にかかる自動合焦装置によ
れば、請求項1にかかる自動合焦装置において、合焦位
置推定手段は、AFエリアの画像データを2次元フーリ
エ変換して周波数領域の振幅と位相に変換し、全周波数
領域の位相をゼロに置き換えた後、2次元逆フーリエ変
換を行って点像分布を算出することとしたので、請求項
1にかかる発明の効果に加えて、DFT(離散フーリエ
変換)やFFT(高速フーリエ変換)が適用でき、DS
P等のデジタル集積回路に適している。According to the automatic focusing device of the second aspect, in the automatic focusing device of the first aspect, the focus position estimating means performs two-dimensional Fourier transform of the image data of the AF area to obtain a frequency domain. After converting the amplitude and the phase into zero and replacing the phase in the entire frequency domain with zero, a two-dimensional inverse Fourier transform is performed to calculate the point spread, so that in addition to the effect of the invention according to claim 1, , DFT (Discrete Fourier Transform) and FFT (Fast Fourier Transform)
Suitable for digital integrated circuits such as P.
【0077】また、請求項3にかかる自動合焦装置によ
れば、請求項1または請求項2にかかる自動合焦装置発
明において、前記合焦位置推定手段は、前記点像分布の
原点ピーク値に基づいて閾値を算出し、当該閾値に基づ
く点像分布の断面のX方向半径とY方向半径の差を、前
記点像の縦横差として算出するものである。上記発明に
よれば、合焦位置推定手段は、点像分布の原点ピーク値
に基づいて閾値を算出し、当該閾値に基づく点像分布の
断面のX方向半径とY方向半径の差を、点像の縦横差と
して算出することとしたので、請求項1または請求項2
にかかる発明の効果に加えて、点像分布の立体データを
平面データに変換でき、点像分布の縦横差を推定するた
めの演算量を低減することが可能となる。According to a third aspect of the present invention, in the automatic focusing apparatus according to the first or second aspect, the in-focus position estimating means includes an origin peak value of the point image distribution. , And the difference between the X-direction radius and the Y-direction radius of the cross section of the point image distribution based on the threshold value is calculated as the vertical and horizontal difference of the point image. According to the above invention, the in-focus position estimating means calculates the threshold value based on the origin peak value of the point image distribution, and calculates the difference between the X direction radius and the Y direction radius of the cross section of the point image distribution based on the threshold value. 3. The method according to claim 1, wherein the difference is calculated as a vertical and horizontal difference between the images.
In addition to the effects of the present invention, the three-dimensional data of the point image distribution can be converted into plane data, and the amount of calculation for estimating the vertical and horizontal difference of the point image distribution can be reduced.
【0078】また、請求項4にかかる自動合焦装置によ
れば、請求項1〜請求項3のいずれか1つにかかる自動
合焦装置において、撮像素子は、カラー撮像素子からな
り、合焦位置推定手段は、カラー撮像素子から出力され
るAFエリアのカラー画像データの輝度情報に基づいて
点像分布を算出することとしたので、請求項1〜請求項
3のいずれか1つにかかる発明の効果に加えて、各色別
に点像分布を求める場合に比して、少ない演算回数でA
F動作を行うことが可能となる。According to the automatic focusing apparatus of the fourth aspect, in the automatic focusing apparatus of any one of the first to third aspects, the image pickup device comprises a color image pickup device, and The invention according to any one of claims 1 to 3, wherein the position estimating means calculates the point spread based on the luminance information of the color image data of the AF area output from the color image sensor. In addition to the above-mentioned effect, the number of operations is smaller than the number of calculations in comparison with the case where a point image distribution is obtained for each color.
The F operation can be performed.
【0079】また、請求項5にかかる自動合焦装置によ
れば、請求項1〜請求項4のいずれか1つにかかる自動
合焦装置において、補助レンズとして、光軸方向に直交
しかつ互いに直交する2方向に対して、各々異なる屈折
率を有する円柱状の凹凸レンズを使用することとしたの
で、請求項1〜請求項4のいずれか1つにかかる発明の
効果に加えて、2方向に対して各々異なる屈折率の補助
レンズを簡単な構成で実現することが可能となる。Further, according to the automatic focusing apparatus of the fifth aspect, in the automatic focusing apparatus of any one of the first to fourth aspects, as an auxiliary lens, the auxiliary lenses are orthogonal to the optical axis direction and are mutually orthogonal. Since cylindrical concave and convex lenses having different refractive indices are used for two orthogonal directions, in addition to the effect of the invention according to any one of claims 1 to 4, two directions are provided. However, auxiliary lenses having different refractive indexes can be realized with a simple configuration.
【0080】また、請求項6にかかる自動合焦装置によ
れば、請求項1〜請求項5のいずれか1つにかかる自動
合焦装置において、補助レンズ駆動手段は、AFのため
の撮像では、補助レンズを光路上に配置する一方、通常
の撮像では、補助レンズを光路上から退避させることと
したので、請求項1〜請求項5のいずれか1つにかかる
発明の効果に加えて、AFのための撮像と通常の撮像を
行うことが可能となる。According to the automatic focusing apparatus of the sixth aspect, in the automatic focusing apparatus of any one of the first to fifth aspects, the auxiliary lens driving means is provided with an image pickup device for AF. Since the auxiliary lens is disposed on the optical path while the auxiliary lens is retracted from the optical path in normal imaging, in addition to the effect of the invention according to any one of claims 1 to 5, Imaging for AF and normal imaging can be performed.
【0081】また、請求項7にかかる自動合焦装置の合
焦方法によれば、各々異なる屈折率を有する補助レンズ
を含む前記レンズ系により、被写体光を結像し、撮像素
子上に結像される被写体像のAFエリアの画像データの
ボケ特性を示す点像分布を求め、点像の大きさおよび縦
横差に基づいて、合焦点の方向と合焦点までの距離を推
定し、推定された合焦点までの距離に基づいて合焦状態
にあるか否かを判断し、合焦状態にないと判断された場
合に、推定された前記合焦点の方向に前記合焦点までの
距離だけ、レンズ系または撮像素子を移動させることと
したので、一回のAFのための撮像のみで焦点位置まで
の距離と方向の情報を得ることができ、簡単な構成で高
速な合焦動作を行うことが可能となる。Further, according to the focusing method of the automatic focusing apparatus according to the seventh aspect, the subject light is imaged by the lens system including the auxiliary lenses having different refractive indexes, and the image is formed on the image pickup device. The point image distribution indicating the blur characteristic of the image data of the AF area of the subject image to be obtained is obtained, and the direction of the focal point and the distance to the focal point are estimated based on the size and vertical / horizontal difference of the point image. It is determined whether or not the camera is in focus based on the distance to the focal point.If it is determined that the camera is not in focus, the lens is moved by the distance to the focal point in the estimated direction of the focal point. Since the system or the imaging element is moved, information on the distance and direction to the focal position can be obtained only by one imaging for AF, and a high-speed focusing operation can be performed with a simple configuration. It becomes possible.
【0082】また、請求項8にかかる自動合焦装置の合
焦方法によれば、光軸方向に直交しかつ互いに直交する
2方向に対して、各々異なる屈折率を有する補助レンズ
を光路上に配置し、補助レンズを含むレンズ系により、
被写体光を結像し、撮像素子上に結像される被写体像の
AFエリアの画像データのボケ特性を示す点像分布を求
め、点像の大きさおよび縦横差に基づいて、合焦点の方
向と合焦点までの距離を推定し、推定された合焦点まで
の距離に基づいて合焦状態にあるか否かを判断し、合焦
状態にないと判断された場合に、推定された前記合焦点
の方向に前記合焦点までの距離だけ、レンズ系または前
記撮像素子を移動させ、他方、合焦状態にあると判断さ
れた場合に、補助レンズを光路上から退避させ、通常の
撮影を行うこととしたので、一回のAFのための撮像の
みで焦点位置までの距離と方向の情報を得ることがで
き、簡単な構成で高速な合焦動作を行うことが可能とな
る。また、通常の撮影を行うことも可能となる。Further, according to the focusing method of the automatic focusing apparatus according to the eighth aspect, the auxiliary lenses having different refractive indexes are provided on the optical path in two directions orthogonal to the optical axis direction and orthogonal to each other. With the lens system including the auxiliary lens
Obtains a point image distribution indicating the blur characteristics of image data of the AF area of the object image formed on the image sensor by imaging the object light, and determines the direction of the focal point based on the size and vertical / horizontal difference of the point image. And the distance to the in-focus point is estimated. Based on the estimated distance to the in-focus point, it is determined whether or not the subject is in focus. The lens system or the image sensor is moved by the distance to the focal point in the direction of the focal point. On the other hand, if it is determined that the lens is in a focused state, the auxiliary lens is retracted from the optical path to perform normal photographing. Therefore, it is possible to obtain information on the distance to the focus position and the direction only by performing imaging for one AF, and to perform a high-speed focusing operation with a simple configuration. It is also possible to perform normal shooting.
【0083】また、請求項9にかかる自動合焦装置の合
焦方法によれば、請求項7または請求項8にかかる自動
合焦装置の合焦方法において、AFエリアの画像データ
を2次元フーリエ変換して周波数領域の振幅と位相に変
換し、全周波数領域の位相をゼロに置き換えた後、2次
元逆フーリエ変換を行って点像分布を算出することとし
たので、請求項7または請求項8にかかる発明の効果に
加えて、DFT(離散フーリエ変換)やFFT(高速フ
ーリエ変換)が適用でき、DSP等のデジタル集積回路
に適している。According to the focusing method of the automatic focusing apparatus according to the ninth aspect, in the focusing method of the automatic focusing apparatus according to the seventh or eighth aspect, the image data of the AF area is two-dimensionally Fourier-transformed. Claim 7 or Claim 7, in which the point image distribution is calculated by performing a two-dimensional inverse Fourier transform after converting the amplitude and phase in the frequency domain to zero and replacing the phase in all frequency domains with zero. In addition to the effects of the invention of FIG. 8, DFT (Discrete Fourier Transform) and FFT (Fast Fourier Transform) can be applied, and are suitable for digital integrated circuits such as DSP.
【0084】また、請求項10にかかる自動合焦装置の
合焦方法によれば、請求項7〜請求項9のいずれか1つ
にかかる自動合焦装置の合焦方法において、点像分布の
原点ピーク値に基づいて閾値を算出し、当該閾値に基づ
く点像分布の断面のX方向半径とY方向半径の差を、点
像の縦横差として算出することとしたので、点像分布の
立体データを平面データに変換でき、点像分布の縦横差
を推定するための演算量を低減することが可能となる。According to the focusing method of the automatic focusing apparatus according to the tenth aspect, in the focusing method of the automatic focusing apparatus according to any one of the seventh to ninth aspects, the point image distribution of the A threshold value is calculated based on the peak value of the origin, and a difference between a radius in the X direction and a radius in the Y direction of a cross section of the point image distribution based on the threshold value is calculated as a vertical and horizontal difference of the point image. The data can be converted into plane data, and the amount of calculation for estimating the vertical and horizontal difference of the point image distribution can be reduced.
【0085】また、請求項11にかかる自動合焦装置の
合焦方法によれば、請求項7〜請求項10のいずれか1
つにかかる自動合焦装置の合焦方法において、カラー撮
像素子から出力されるAFエリアのカラー画像データの
輝度情報に基づいて点像分布を算出することとしたの
で、請求項7〜請求項10のいずれか1つにかかる発明
の効果に加えて、各色別に点像分布を求める場合に比し
て、少ない演算回数でAF動作を行うことが可能とな
る。Further, according to the focusing method of the automatic focusing device according to the eleventh aspect, any one of the seventh to tenth aspects.
In the focusing method of the automatic focusing device, the point image distribution is calculated based on the luminance information of the color image data in the AF area output from the color imaging device. In addition to the effect of the invention according to any one of the above, the AF operation can be performed with a smaller number of calculations than in the case where a point image distribution is obtained for each color.
【0086】また、請求項12にかかる自動合焦装置の
合焦方法によれば、請求項7〜請求項11のいずれか1
つにかかる自動合焦装置の合焦方法において、補助レン
ズとして、光軸方向に直交しかつ互いに直交する2方向
に対して、各々相反する屈折率を有する円柱状の凹凸レ
ンズを使用することとしたので、2方向に対して各々異
なる屈折率の補助レンズを簡単な構成で実現することが
可能となる。Further, according to the focusing method of the automatic focusing device according to the twelfth aspect, any one of the seventh to eleventh aspects is provided.
In the focusing method of the automatic focusing device according to the first aspect, as the auxiliary lens, a cylindrical concave-convex lens having a refractive index opposite to each other in two directions orthogonal to the optical axis direction and mutually orthogonal to each other, Therefore, it is possible to realize auxiliary lenses having different refractive indexes in two directions with a simple configuration.
【0087】また、請求項13にかかるコンピュータが
読み取り可能な記録媒体によれば、コンピュータで記録
媒体に格納されたプログラムを実行することにより、請
求項7〜請求項12のいずれか1つに記載の発明の各ス
テップを実現することとしたので、一回のAFのための
撮像のみで焦点位置までの距離と方向の情報を得ること
ができ、簡単な構成で高速な合焦動作を行うことが可能
となる。According to the computer-readable recording medium of the present invention, the computer executes a program stored in the recording medium to execute the program. Since each step of the invention of the present invention is realized, it is possible to obtain information on the distance and direction to the focus position only by one imaging for AF, and to perform a high-speed focusing operation with a simple configuration. Becomes possible.
【図面の簡単な説明】[Brief description of the drawings]
【図1】本発明の原理を説明するための説明図である。FIG. 1 is an explanatory diagram for explaining the principle of the present invention.
【図2】補助レンズの構成を示す図である。FIG. 2 is a diagram illustrating a configuration of an auxiliary lens.
【図3】カラーイメージセンサーのAFエリアを説明す
るための説明図である。FIG. 3 is an explanatory diagram for explaining an AF area of a color image sensor.
【図4】焦点の方向および距離の判別方法を説明するた
めの説明図である。FIG. 4 is an explanatory diagram for explaining a method of determining the direction and distance of a focal point.
【図5】センサ位置と点像半径の関係を説明するための
図である。FIG. 5 is a diagram for explaining a relationship between a sensor position and a point image radius.
【図6】センサ位置と点像の縦横差の関係を説明するた
めの図である。FIG. 6 is a diagram for explaining a relationship between a sensor position and a vertical / horizontal difference of a point image.
【図7】本発明にかかるデジタルカメラのAF処理系の
構成図である。FIG. 7 is a configuration diagram of an AF processing system of the digital camera according to the present invention.
【図8】AF動作および撮影動作を説明するためのフロ
ーチャートである。FIG. 8 is a flowchart illustrating an AF operation and a photographing operation.
【図9】図8のAF動作の点像半径算出処理を詳細に説
明するためのフローチャートである。FIG. 9 is a flowchart for explaining in detail a point image radius calculation process of the AF operation in FIG. 8;
【図10】図8のAF動作の焦点距離方向算出処理を詳
細に説明するためのフローチャートである。FIG. 10 is a flowchart for explaining in detail a focal length direction calculation process of the AF operation in FIG. 8;
【図11】2次元ハミング窓関数を説明するための説明
図である。FIG. 11 is an explanatory diagram for explaining a two-dimensional Hamming window function.
【図12】合焦時の点像分布係数を説明するための説明
図である。FIG. 12 is an explanatory diagram for explaining a point spread coefficient at the time of focusing.
【図13】ピンボケ時の点像分布係数を説明するための
説明図である。FIG. 13 is an explanatory diagram for explaining a point spread coefficient at the time of out-of-focus.
【図14】点像半径の算出方法を説明するための説明図
である。FIG. 14 is an explanatory diagram for describing a method of calculating a point image radius.
【図15】後ピン時の焦点距離Lを説明するための説明
図である。FIG. 15 is an explanatory diagram for explaining a focal length L at the time of back focus.
【図16】前ピン時の焦点距離Lを説明するための説明
図である。FIG. 16 is an explanatory diagram for explaining a focal length L at the time of front focus.
101A 焦点レンズ 101B 補助レンズ 101 撮影兼AF用レンズ 102 撮像絞り 103 カラーイメージセンサー 104 自動露出制御部 105 AFエリア画像データメモリ 106 窓関数乗算部 107 2次元FFT部 108 位相操作部 109 2次元IFFT部 110 点像分布係数メモリ 111 距離方向算出部 112 焦点調整駆動装置 113 撮影/AF切替装置 114 フレーム用画像メモリ 115 輝度変換部 Reference Signs List 101A Focus lens 101B Auxiliary lens 101 Shooting and AF lens 102 Imaging aperture 103 Color image sensor 104 Automatic exposure control unit 105 AF area image data memory 106 Window function multiplication unit 107 2D FFT unit 108 Phase operation unit 109 2D IFFT unit 110 Point image distribution coefficient memory 111 Distance direction calculation unit 112 Focus adjustment driving device 113 Photographing / AF switching device 114 Frame image memory 115 Luminance conversion unit
Claims (13)
方向に対して、各々異なる屈折率を有する補助レンズを
含み、被写体を結像するためのレンズ系と、 撮像エリアの少なくとも一部にAFエリアが設定され、
前記レンズ系により結像される被写体像を画像データに
変換する撮像素子と、 前記AFエリアの画像データのボケ特性を示す点像分布
を求め、点像の大きさおよび縦横差に基づいて、合焦点
の方向と合焦点までの距離を推定する合焦位置推定手段
と、 前記合焦位置推定手段で推定された前記合焦点の距離に
基づき、合焦状態にあるか否かを判断する合焦状態判別
手段と、 前記合焦状態判別手段で合焦状態にないと判断された場
合に、前記合焦位置推定手段で推定された前記合焦点の
方向に前記合焦点までの距離だけ、前記レンズ系または
前記撮像素子を移動させる駆動手段と、 を備えたことを特徴とする自動合焦装置。1. An optical system which is orthogonal to the optical axis direction and orthogonal to each other.
A lens system for forming an image of a subject, including an auxiliary lens having a different refractive index for each direction, and an AF area set in at least a part of an imaging area;
An image sensor for converting a subject image formed by the lens system into image data; and a point image distribution indicating a blur characteristic of the image data in the AF area, and obtaining a point image distribution based on a size and a vertical / horizontal difference of the point image. A focus position estimating means for estimating a focus direction and a distance to a focal point; and a focus for judging whether or not the subject is in focus, based on the distance of the focal point estimated by the focus position estimating means. State determining means, and when the in-focus state determining means determines that the lens is not in focus, the lens is moved by the distance to the in-focus point in the direction of the in-focus point estimated by the in-focus position estimating means. And a driving means for moving the system or the image pickup device.
周波数領域の振幅と位相に変換し、全周波数領域の位相
をゼロに置き換えた後、2次元逆フーリエ変換を行って
点像分布を算出することを特徴とする請求項1に記載の
自動合焦装置。2. The in-focus position estimating means converts the image data in the AF area into two-dimensional Fourier transform into amplitude and phase in a frequency domain, and replaces all phases in a frequency domain with zero. 2. The automatic focusing apparatus according to claim 1, wherein a point image distribution is calculated by performing an inverse Fourier transform.
当該閾値に基づく点像分布の断面のX方向半径とY方向
半径の差を、前記点像の縦横差として算出することを特
徴とする請求項1または請求項2に記載の自動合焦装
置。3. The in-focus position estimating means calculates a threshold based on an origin peak value of the point image distribution,
The automatic focusing device according to claim 1, wherein a difference between a radius in the X direction and a radius in the Y direction of a cross section of the point image distribution based on the threshold value is calculated as a vertical and horizontal difference of the point image.
り、 前記合焦位置推定手段は、前記カラー撮像素子から出力
されるAFエリアのカラー画像データの輝度情報に基づ
いて点像分布を算出することを特徴とする請求項1〜請
求項3のいずれか1つに記載の自動合焦装置。4. The image pickup device comprises a color image pickup device, and the focus position estimating means calculates a point image distribution based on luminance information of color image data of an AF area output from the color image pickup device. The automatic focusing device according to claim 1, wherein:
つ互いに直交する2方向に対して、各々相反する屈折率
を有する円柱状の凹凸レンズであることを特徴とする請
求項1〜請求項4のいずれか1つに記載の自動合焦装
置。5. The auxiliary lens according to claim 1, wherein the auxiliary lens is a cylindrical concave / convex lens having mutually opposite refractive indices in two directions orthogonal to the optical axis direction and orthogonal to each other. Item 5. The automatic focusing device according to any one of Items 4.
めの補助レンズ駆動手段を備え、前記補助レンズ駆動手
段は、AFのための撮像では、前記補助レンズを光路上
に配置する一方、通常の撮像では、前記補助レンズを光
路上から退避させることを特徴とする請求項1〜請求項
5のいずれか1つに記載の自動合焦装置。6. An auxiliary lens driving unit for moving the auxiliary lens, wherein the auxiliary lens driving unit arranges the auxiliary lens on an optical path for imaging for AF, and performs normal imaging. 6. The automatic focusing device according to claim 1, wherein the auxiliary lens is retracted from an optical path.
動合焦動作を行う自動合焦装置の合焦方法において、 光軸方向に直交しかつ互いに直交する2方向に対して、
各々異なる屈折率を有する補助レンズを含む前記レンズ
系により、被写体を結像するステップと、 前記撮像素子上に結像される被写体像のAFエリアの画
像データのボケ特性を示す点像分布を求め、点像の大き
さおよび縦横差に基づいて、合焦点の方向と合焦点まで
の距離を推定する推定ステップと、 前記推定された合焦点までの距離に基づいて合焦状態に
あるか否かを判断する合焦判定ステップと、 前記合焦判定ステップで、合焦状態にないと判断された
場合に、前記推定された前記合焦点の方向に前記合焦点
までの距離だけ、前記レンズ系または前記撮像素子を移
動させる移動ステップと、 を含むことを特徴とする自動合焦装置の合焦方法。7. A focusing method of an automatic focusing device for performing an automatic focusing operation by moving a lens system or an image pickup device, comprising:
Forming an image of a subject by the lens system including auxiliary lenses each having a different refractive index; obtaining a point image distribution indicating a blur characteristic of image data of an AF area of the subject image formed on the image sensor; An estimation step of estimating the direction of the focal point and the distance to the focal point based on the size and vertical / horizontal difference of the point image; and determining whether the object is in focus based on the estimated distance to the focal point. In the focusing determination step of determining, and in the focusing determination step, when it is determined that it is not in focus, by the distance to the focus in the direction of the estimated focus, the lens system or A focusing step of the automatic focusing device, comprising: a moving step of moving the imaging element.
動合焦動作を行う自動合焦装置の合焦方法において、 光軸方向に直交しかつ互いに直交する2方向に対して、
各々異なる屈折率を有する補助レンズを光路上に配置す
るステップと、 前記補助レンズを含む前記レンズ系により、被写体を結
像するステップと、 前記撮像素子上に結像される被写体像のAFエリアの画
像データのボケ特性を示す点像分布を求め、点像の大き
さおよび縦横差に基づいて、合焦点の方向と合焦点まで
の距離を推定する推定のステップと、 前記推定された合焦点までの距離に基づいて合焦状態に
あるか否かを判断する合焦判定ステップと、 前記合焦判定ステップで、合焦状態にないと判断された
場合に、前記推定された前記合焦点の方向に前記合焦点
までの距離だけ、前記レンズ系または前記撮像素子を移
動させる移動ステップと、 前記合焦判定ステップで、合焦状態にあると判断された
場合に、前記補助レンズを光路上から退避させ、通常の
撮影を行うステップと、 を含むことを特徴とする自動合焦装置の合焦方法。8. A focusing method of an automatic focusing device for performing an automatic focusing operation by moving a lens system or an image sensor, wherein two directions orthogonal to an optical axis direction and orthogonal to each other are provided.
Arranging auxiliary lenses each having a different refractive index on an optical path; forming an image of a subject by the lens system including the auxiliary lens; and forming an AF area of the subject image formed on the image sensor. Estimating the point image distribution indicating the blur characteristics of the image data, based on the size and the vertical and horizontal difference of the point image, an estimation step of estimating the direction of the focal point and the distance to the focal point, and up to the estimated focal point A focus determining step of determining whether or not the subject is in focus based on the distance of the subject; and in the focusing determining step, when it is determined that the subject is not in focus, the estimated direction of the focus is determined. A moving step of moving the lens system or the imaging element by a distance to the focal point; and, if it is determined in the focusing step that the auxiliary lens is on the optical path, Are retracted, the focusing method of an automatic focusing device which comprises the steps of performing a normal photographing, the.
周波数領域の振幅と位相に変換し、全周波数領域の位相
をゼロに置き換えた後、2次元逆フーリエ変換を行って
点像分布を算出することを特徴とする請求項7または請
求項8に記載の自動合焦装置の合焦方法。9. In the estimating step, two-dimensional Fourier transform is performed on the image data of the AF area to convert the image data into an amplitude and a phase in a frequency domain. 9. A focusing method for an automatic focusing device according to claim 7, wherein the point image distribution is calculated by performing the following.
当該閾値に基づく点像分布の断面のX方向半径とY方向
半径の差を、前記点像の縦横差として算出することを特
徴とする請求項7〜請求項9のいずれか1つに記載の自
動合焦装置の合焦方法。10. In the estimating step, a threshold value is calculated based on an origin peak value of the point image distribution,
The difference between the X-direction radius and the Y-direction radius of the cross section of the point image distribution based on the threshold value is calculated as the vertical and horizontal difference of the point image. Focusing method for automatic focusing device.
なり、 前記推定ステップでは、前記カラー撮像素子から出力さ
れるAFエリアのカラー画像データの輝度情報に基づい
て点像分布を算出することを特徴とする請求項7〜請求
項10のいずれか1つに記載の自動合焦装置の合焦方
法。11. The image pickup device comprises a color image pickup device, and in the estimating step, a point image distribution is calculated based on luminance information of color image data of an AF area output from the color image pickup device. The focusing method of the automatic focusing device according to any one of claims 7 to 10.
かつ互いに直交する2方向に対して、各々相反する屈折
率を有する円柱状の凹凸レンズであることを特徴とする
請求項7〜請求項11のいずれか1つに記載の自動合焦
装置の合焦方法。12. The auxiliary lens according to claim 7, wherein the auxiliary lens is a columnar concave / convex lens having reciprocal refractive indices in two directions orthogonal to the optical axis direction and orthogonal to each other. Item 12. The focusing method of the automatic focusing device according to any one of items 11.
に記載の発明の各ステップをコンピュータに実行させる
ためのプログラムを記録したことを特徴とするコンピュ
ータが読み取り可能な記録媒体。13. A computer-readable recording medium on which is recorded a program for causing a computer to execute the steps of any one of claims 7 to 12.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2000309800A JP2002116372A (en) | 2000-10-10 | 2000-10-10 | Automatic focusing device, its focusing method, and computer-readable storage medium stored with program for performing the method by computer |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2000309800A JP2002116372A (en) | 2000-10-10 | 2000-10-10 | Automatic focusing device, its focusing method, and computer-readable storage medium stored with program for performing the method by computer |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2002116372A true JP2002116372A (en) | 2002-04-19 |
Family
ID=18789887
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2000309800A Pending JP2002116372A (en) | 2000-10-10 | 2000-10-10 | Automatic focusing device, its focusing method, and computer-readable storage medium stored with program for performing the method by computer |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2002116372A (en) |
Cited By (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2009047735A (en) * | 2007-08-13 | 2009-03-05 | Olympus Corp | Imaging apparatus and image processing program |
| JP2009047733A (en) * | 2007-08-13 | 2009-03-05 | Olympus Corp | Imaging apparatus and image processing program |
| JP2009047734A (en) * | 2007-08-13 | 2009-03-05 | Olympus Corp | Imaging apparatus and image processing program |
| JP2011070134A (en) * | 2009-09-28 | 2011-04-07 | Kyocera Corp | Imaging apparatus and method for processing image |
| CN103235397A (en) * | 2013-04-28 | 2013-08-07 | 华为技术有限公司 | Automatic focusing method and automatic focusing device |
| CN103293823A (en) * | 2012-02-24 | 2013-09-11 | 鸿富锦精密工业(深圳)有限公司 | Automatic focusing imaging module |
| US8570432B2 (en) | 2010-09-06 | 2013-10-29 | Canon Kabushiki Kaisha | Focus adjustment apparatus and image capturing apparatus |
| JP2014511508A (en) * | 2011-02-25 | 2014-05-15 | ボード・オブ・リージエンツ,ザ・ユニバーシテイ・オブ・テキサス・システム | Focus error estimation in images |
-
2000
- 2000-10-10 JP JP2000309800A patent/JP2002116372A/en active Pending
Cited By (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2009047735A (en) * | 2007-08-13 | 2009-03-05 | Olympus Corp | Imaging apparatus and image processing program |
| JP2009047733A (en) * | 2007-08-13 | 2009-03-05 | Olympus Corp | Imaging apparatus and image processing program |
| JP2009047734A (en) * | 2007-08-13 | 2009-03-05 | Olympus Corp | Imaging apparatus and image processing program |
| JP2011070134A (en) * | 2009-09-28 | 2011-04-07 | Kyocera Corp | Imaging apparatus and method for processing image |
| US8570432B2 (en) | 2010-09-06 | 2013-10-29 | Canon Kabushiki Kaisha | Focus adjustment apparatus and image capturing apparatus |
| JP2014511508A (en) * | 2011-02-25 | 2014-05-15 | ボード・オブ・リージエンツ,ザ・ユニバーシテイ・オブ・テキサス・システム | Focus error estimation in images |
| CN103293823A (en) * | 2012-02-24 | 2013-09-11 | 鸿富锦精密工业(深圳)有限公司 | Automatic focusing imaging module |
| CN103293823B (en) * | 2012-02-24 | 2018-04-20 | 深圳众赢时代科技有限公司 | Auto Focus Imaging Module |
| CN103235397A (en) * | 2013-04-28 | 2013-08-07 | 华为技术有限公司 | Automatic focusing method and automatic focusing device |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN108076286B (en) | Image blurring method and device, mobile terminal and storage medium | |
| CN101943839B (en) | Automatic focusing method for integrated automatic focusing camera device | |
| CN101713902B (en) | Fast camera auto-focus | |
| JP6271990B2 (en) | Image processing apparatus and image processing method | |
| JP5868183B2 (en) | Imaging apparatus and imaging method | |
| JP5869883B2 (en) | Image processing device | |
| JP6091228B2 (en) | Image processing apparatus and imaging apparatus | |
| US10061182B2 (en) | Systems and methods for autofocus trigger | |
| CN108076278B (en) | A kind of automatic focusing method, device and electronic equipment | |
| JP3980799B2 (en) | Automatic focusing device and focusing method thereof | |
| JP2000199845A (en) | Automatic focusing device and automatic focusing method | |
| CN103384998A (en) | Imaging device, imaging method, program, and program storage medium | |
| CN106412423A (en) | Focusing method and device | |
| JP6494587B2 (en) | Image processing apparatus, image processing apparatus control method, imaging apparatus, and program | |
| CN115314697B (en) | Image processing device and method, camera device and control method thereof, and storage medium | |
| CN100399183C (en) | Adaptive Autofocus Method in Digital Camera | |
| JP2000125177A (en) | Automatic focusing device | |
| US9591202B2 (en) | Image processing apparatus and image processing method for generating recomposed images | |
| JP2002116372A (en) | Automatic focusing device, its focusing method, and computer-readable storage medium stored with program for performing the method by computer | |
| JP4354096B2 (en) | Imaging device | |
| JP2007328360A (en) | Autofocus camera and photographing method | |
| JP6645711B2 (en) | Image processing apparatus, image processing method, and program | |
| JP2012142729A (en) | Camera | |
| JP2000338385A (en) | Automatic focusing device and focusing method thereof | |
| JP2024005590A (en) | Image processing device, imaging device, image processing method, and program |