[go: up one dir, main page]

JP5289105B2 - Image processing apparatus, control method therefor, and imaging apparatus - Google Patents

Image processing apparatus, control method therefor, and imaging apparatus Download PDF

Info

Publication number
JP5289105B2
JP5289105B2 JP2009052557A JP2009052557A JP5289105B2 JP 5289105 B2 JP5289105 B2 JP 5289105B2 JP 2009052557 A JP2009052557 A JP 2009052557A JP 2009052557 A JP2009052557 A JP 2009052557A JP 5289105 B2 JP5289105 B2 JP 5289105B2
Authority
JP
Japan
Prior art keywords
image
subject
image processing
defocus amount
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009052557A
Other languages
Japanese (ja)
Other versions
JP2010206722A (en
JP2010206722A5 (en
Inventor
武士 阪口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009052557A priority Critical patent/JP5289105B2/en
Publication of JP2010206722A publication Critical patent/JP2010206722A/en
Publication of JP2010206722A5 publication Critical patent/JP2010206722A5/en
Application granted granted Critical
Publication of JP5289105B2 publication Critical patent/JP5289105B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Automatic Focus Adjustment (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Description

本発明は、画像処理装置およびその制御方法、ならびに撮像装置に関し、特には、撮像した画像に画像処理を施す画像処理装置および画像処理方法、ならびに、撮像装置に関する。 The present invention, images processing device and a control method thereof, and relates to an imaging apparatus, particularly to an image processing apparatus and image processing method performs image processing on the image captured, and relates to an imaging apparatus.

従来より、複数の測距エリアを持つカメラにおいて、撮影した画像からデフォーカス量分布を検出し、このデフォーカス量分布に基づいて画像処理を施すようにした撮像装置が知られている。このような撮像装置では、複数の測距エリアのそれぞれでデフォーカス量を検出し、検出されたデフォーカス量のヒストグラムに基づいてデフォーカス量を複数のデフォーカス量グループに類別する。そして、分類されたそれぞれのグレープのデフォーカス量に応じた画像処理を、撮影した画像に対して施している。   2. Description of the Related Art Conventionally, there has been known an imaging apparatus that detects a defocus amount distribution from a photographed image and performs image processing based on the defocus amount distribution in a camera having a plurality of ranging areas. In such an imaging apparatus, a defocus amount is detected in each of a plurality of ranging areas, and the defocus amount is classified into a plurality of defocus amount groups based on a histogram of the detected defocus amount. Then, image processing corresponding to the defocus amount of each classified grape is performed on the captured image.

例えば特許文献1には、デフォーカス量のヒストグラムに基づいて、出現頻度の低いデフォーカス量を境界として複数のデフォーカス量グループに類別するようにした撮像装置が記載されている。   For example, Patent Document 1 describes an imaging device that is classified into a plurality of defocus amount groups based on a defocus amount with a low appearance frequency based on a defocus amount histogram.

特開2008−15754号公報JP 2008-15754 A

しかしながら、従来の技術では、デフォーカス量のヒストグラムに基づいて分類されたデフォーカス量グループの中から、撮影者が意図した被写体である主被写体のみが属するデフォーカス量グループを必ずしも抽出できるとは限らないという問題点があった。   However, in the conventional technique, it is not always possible to extract a defocus amount group to which only a main subject that is a subject intended by the photographer belongs from among the defocus amount groups classified based on a histogram of defocus amounts. There was no problem.

これは、デフォーカス量グループは、幅を持ったデフォーカス範囲の内か外かでデフォーカス量をグループに分類して形成するため、主被写体が属するグループ内に他の被写体も含まれる可能性が高いからである。主被写体とその他の被写体のデフォーカス量が不明な段階で、両者を分離するデフォーカス範囲を設定することは、一般に困難である。   This is because the defocus amount group is formed by classifying the defocus amount into groups depending on whether it is within or outside the wide defocus range, so other subjects may be included in the group to which the main subject belongs. Because it is expensive. It is generally difficult to set a defocus range that separates the main subject and other subjects at a stage where the defocus amounts are unknown.

このように、従来技術による、デフォーカス量をヒストグラムに基づいて複数のデフォーカス量グループに類別する方法では、主被写体のみに画像処理を施そうとしても、同一デフォーカス量グループに属する他の被写体にまで画像処理を施すことになる。そのため、従来では、主被写体に対して他の被写体よりも相対的に効果が高い画像処理を選択的に施すことが困難であるという問題点があった。   As described above, according to the conventional method of classifying the defocus amount into a plurality of defocus amount groups based on the histogram, even if image processing is performed only on the main subject, another subject belonging to the same defocus amount group is used. The image processing is performed up to. Therefore, conventionally, there has been a problem in that it is difficult to selectively perform image processing that is relatively more effective than the other subjects on the main subject.

したがって、本発明の目的は、被写体毎のデフォーカス量を求めることが可能な画像処理装置およびその制御方法、ならびに、撮像装置を提供することにある。 Accordingly, an object of the present invention, an image processing apparatus and a control method thereof capable of obtaining the defocus amount of each object to be Utsushitai, and to provide an image pickup apparatus.

上述の目的は、被写体像を光電変換して画像信号を生成し出力する撮像素子であって、撮像光学系の射出瞳の異なる領域を通った光束をそれぞれ独立に受光して得られた像信号を出力可能な撮像素子と、撮像素子から出力された像信号の位相差に基づいて被写体のデフォーカス量を検出する焦点検出手段と、撮像素子から出力された画像信号に対して被写体検知処理を行い、検知された被写体の領域に対応する撮像素子上の領域を特定する被写体検知手段とを有し焦点検出手段は、被写体検知手段で特定された被写体域に対応する撮像素子上の領域から出力された像信号の位相差に基づいて、検知された被写体のデフォーカス量を検出することを特徴とする画像処理装置によって達成される。 The above-described object is an image sensor that photoelectrically converts a subject image to generate and output an image signal, and an image signal obtained by independently receiving light beams that have passed through different areas of the exit pupil of the imaging optical system. capable of outputting the image pickup device and a focus detection means for detecting the defocus amount of the object based on the phase difference of the output image signal from the imaging device, the subject detection processing on the image signal output from the imaging device performed, and a subject detecting means for identifying a detected region on the imaging element corresponding to a region of the photographic material were the focus detection means, the imaging element corresponding to the realm of the subject identified by the object detecting means based on the phase difference of the image signals output from the area of the upper, Ru is achieved by an image processing apparatus characterized by detecting the defocus amount of the detected object.

本発明によれば、被写体毎のデフォーカス量を求めることができるため、例えば撮影者が意図した被写体の領域に対して選択的に画像処理を施すことができる。 According to the present invention , since the defocus amount for each subject can be obtained, for example , image processing can be selectively performed on the region of the subject intended by the photographer.

本発明を適用可能な撮像装置の一例の構成を示すブロック図である。It is a block diagram which shows the structure of an example of the imaging device which can apply this invention. 撮像用画素に係る、撮像素子を含む撮像光学系について概略的に説明するための図である。It is a figure for demonstrating schematically the imaging optical system containing the image pick-up element based on the pixel for imaging. 焦点検出用画素に係る、撮像素子を含む撮像光学系について概略的に説明するための図である。It is a figure for demonstrating schematically the imaging optical system containing the image pick-up element based on the pixel for focus detection. 撮像素子上の撮像用画素と焦点検出用画素の一例の配置を示す図である。It is a figure which shows arrangement | positioning of an example of the pixel for imaging on an image sensor, and the pixel for focus detection. 本発明の実施形態に適用可能な一例の撮像処理を示すフローチャートである。It is a flowchart which shows an example imaging process applicable to embodiment of this invention. 本実施形態による画像処理を示す一例のフローチャートを示す。2 is a flowchart illustrating an example of image processing according to the present embodiment. 本実施形態による画像処理を説明するための図である。It is a figure for demonstrating the image processing by this embodiment. 本実施形態による画像処理を説明するための図である。It is a figure for demonstrating the image processing by this embodiment. 画像処理制御パラメータfの設定方法を説明するための図である。It is a figure for demonstrating the setting method of the image processing control parameter f.

以下、本発明の実施形態を、図面を参照しながら説明する。図1は、本発明を適用可能な撮像装置100の一例の構成を示す。撮像素子107は、CCDやCMOSセンサからなり、撮影レンズ101を通過した被写体光学像を結像させ、結像された被写体光学像の光量に応じて電荷に変換して得られた撮像信号を出力する。また、撮像素子107は、画像信号を出力する撮像用画素とは別に、後述する被写体像信号を出力する焦点検出用画素を備えている。撮像素子107から出力される撮像信号は、これら画像信号と被写体像信号とを含む。   Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 shows an exemplary configuration of an imaging apparatus 100 to which the present invention can be applied. The image sensor 107 is composed of a CCD or CMOS sensor, forms an object optical image that has passed through the photographing lens 101, and outputs an image signal obtained by converting the image into electric charges according to the amount of light of the imaged object optical image. To do. In addition, the imaging element 107 includes a focus detection pixel that outputs a subject image signal, which will be described later, in addition to the imaging pixel that outputs an image signal. The imaging signal output from the imaging element 107 includes these image signal and subject image signal.

半透過部を有する主ミラー102は、撮影時には撮影光束外へ退避し、焦点検出時に撮影光路内に斜設される。図1では、主ミラー102は、撮影光束中に挿入された状態(ミラーダウン)が示されている。また、主ミラー102は、撮影光路内に斜設された状態で、撮影レンズ101を通過した光束の一部をピント板103、ペンタプリズム104および接眼レンズ105から構成されるファインダ光学系に導く。   The main mirror 102 having the semi-transmissive portion is retracted out of the photographing light beam at the time of photographing, and is obliquely installed in the photographing optical path at the time of detecting the focus. FIG. 1 shows a state where the main mirror 102 is inserted in the photographing light beam (mirror down). The main mirror 102 guides a part of the light beam that has passed through the photographing lens 101 to a finder optical system including the focusing plate 103, the pentaprism 104, and the eyepiece lens 105 while being obliquely provided in the photographing optical path.

サブミラー106は、主ミラー102の動作に同期して主ミラー102に対して折り畳み、展開可能とされている。主ミラー102の半透過部を通過した光束の一部は、サブミラー106によって下方へ反射され、位相差方式の焦点検出部108に入射し、撮影レンズ101の合焦状態が検出される。   The sub mirror 106 can be folded and unfolded with respect to the main mirror 102 in synchronization with the operation of the main mirror 102. A part of the light beam that has passed through the semi-transmissive portion of the main mirror 102 is reflected downward by the sub mirror 106 and is incident on the phase difference type focus detection unit 108 to detect the in-focus state of the photographing lens 101.

一方、コントラスト方式のAF測距は、常時、主ミラー102を撮影光束外へ退避させる。そして、この動作に同期してサブミラー106を主ミラー102に対して折り畳んだ状態(ミラーアップ)で、撮影レンズ101を通過した被写体光学像を撮像素子107に結像させ、撮影レンズ101の合焦状態が検出される。   On the other hand, in contrast-type AF distance measurement, the main mirror 102 is always retracted out of the photographing light flux. Then, in synchronization with this operation, the subject optical image that has passed through the photographing lens 101 is formed on the image sensor 107 in a state in which the sub mirror 106 is folded with respect to the main mirror 102 (mirror up), and the photographing lens 101 is focused. A state is detected.

システムコントローラ112は、例えばCPU、ROM、RAMなどを有し、CPUは、ROMに予め格納されたプログラムに従い、RAMをワークメモリとして用いて、この撮像装置100の各部の動作を適宜、制御する。   The system controller 112 includes, for example, a CPU, a ROM, a RAM, and the like. The CPU appropriately controls the operation of each unit of the imaging apparatus 100 using the RAM as a work memory in accordance with a program stored in advance in the ROM.

レンズ駆動部113は、システムコントローラ112に接続され、撮影レンズ101と通信を行う通信部と、焦点調節を行うために撮影レンズ101を駆動するレンズ駆動機構と、レンズ駆動機構を制御する駆動回路とを備える。ミラー駆動部114は、システムコントローラ112に接続され、主ミラー102を撮影光束外へ駆動する。撮像素子駆動部115は、システムコントローラ112に接続され、撮像素子107を駆動する。   The lens driving unit 113 is connected to the system controller 112, communicates with the photographing lens 101, a lens driving mechanism that drives the photographing lens 101 to perform focus adjustment, and a driving circuit that controls the lens driving mechanism. Is provided. The mirror driving unit 114 is connected to the system controller 112 and drives the main mirror 102 out of the imaging light flux. The image sensor driving unit 115 is connected to the system controller 112 and drives the image sensor 107.

アナログ信号処理部109は、撮像素子107から出力された撮像信号に対してゲイン調整、ノイズ除去などの信号処理を施し、画像信号として出力する。A/D変換器110は、アナログ信号処理部109から出力されたアナログ信号による画像信号を、デジタル信号による画像信号(以下、画像データ)に変換する。   The analog signal processing unit 109 performs signal processing such as gain adjustment and noise removal on the imaging signal output from the imaging element 107, and outputs it as an image signal. The A / D converter 110 converts the image signal based on the analog signal output from the analog signal processing unit 109 into an image signal based on a digital signal (hereinafter referred to as image data).

デジタル信号処理部111は、システムコントローラ112に接続され、A/D変換器110から出力された画像データに対して、シェーディング補正やガンマ補正などの画像処理を施す。デジタル信号処理部111は、さらに、撮像素子107の焦点検出用画素から出力される被写体像信号に基づく画像データにより撮影レンズ101の合焦状態を検出する検出部を備えている。   The digital signal processing unit 111 is connected to the system controller 112 and performs image processing such as shading correction and gamma correction on the image data output from the A / D converter 110. The digital signal processing unit 111 further includes a detection unit that detects the in-focus state of the photographing lens 101 based on image data based on the subject image signal output from the focus detection pixels of the image sensor 107.

バッファメモリ116は、デジタル信号処理部111に接続され、撮像素子107で撮像された複数フレーム分の画像データを記憶することができる。例えば、A/D変換器110でA/D変換された画像データは、一旦このバッファメモリ116に記憶される。デジタル信号処理部111は、バッファメモリ116に記憶された画像データを読み込んで上述した各処理を行い、処理後の画像データは再びバッファメモリ116に記憶される。   The buffer memory 116 is connected to the digital signal processing unit 111 and can store image data for a plurality of frames captured by the image sensor 107. For example, the image data A / D converted by the A / D converter 110 is temporarily stored in the buffer memory 116. The digital signal processing unit 111 reads the image data stored in the buffer memory 116 and performs each process described above, and the processed image data is stored in the buffer memory 116 again.

記録手段としての記録再生信号処理部117は、デジタル信号処理部111に接続され、外部記憶媒体118に対する画像データの記録および再生を制御する。デジタル信号処理部111で各種処理が施された画像データは、一旦バッファメモリ116に記憶された後に記録再生信号処理部117に供給され、外部記憶媒体118に記憶される。記録媒体としての外部記憶媒体118は、例えば脱着可能な不揮発性メモリを用いることができる。   A recording / playback signal processing unit 117 serving as a recording unit is connected to the digital signal processing unit 111 and controls recording and playback of image data on the external storage medium 118. The image data that has been subjected to various types of processing by the digital signal processing unit 111 is temporarily stored in the buffer memory 116, supplied to the recording / reproducing signal processing unit 117, and stored in the external storage medium 118. As the external storage medium 118 as a recording medium, for example, a removable nonvolatile memory can be used.

記録再生信号処理部117は、画像データに対して圧縮符号化を施すことができると共に、圧縮符号化された圧縮画像データの伸長処理を行うことができる。圧縮符号化方式としては、例えばJPEG方式を適用することができる。例えば記録再生信号処理部117は、画像データに対して圧縮符号化を施して外部記憶媒体118に記憶する。また、記録再生信号処理部117は、外部記憶媒体118から読み出した圧縮画像データを伸長する。   The recording / playback signal processing unit 117 can perform compression coding on the image data and can perform decompression processing on the compressed image data that has been compression-coded. As a compression encoding method, for example, a JPEG method can be applied. For example, the recording / playback signal processing unit 117 performs compression coding on the image data and stores the image data in the external storage medium 118. The recording / playback signal processing unit 117 expands the compressed image data read from the external storage medium 118.

表示部120は、LCDなどの表示デバイスと、当該表示デバイスを駆動する駆動回路を有し、撮像された画像や、記憶媒体118に記憶されている画像データを再生表示する。表示部120に画像を表示する場合には、バッファメモリ116に記憶された画像データを読み出し、D/A変換器119により画像データであるデジタル画像信号をアナログ画像信号に変換する。そして、そのアナログ画像信号を用いて表示部120に画像を表示する。   The display unit 120 includes a display device such as an LCD and a drive circuit that drives the display device, and reproduces and displays captured images and image data stored in the storage medium 118. When displaying an image on the display unit 120, the image data stored in the buffer memory 116 is read out, and a digital image signal that is image data is converted into an analog image signal by the D / A converter 119. Then, an image is displayed on the display unit 120 using the analog image signal.

撮像素子107で撮像された画像は、2種類の形態で表示部120に表示される。第1の形態は、レリーズ操作が行われないときの表示形態であり、撮像素子107で繰り返し撮像される画像を逐次更新表示する、スルー画と呼ばれる表示形態である。第2の形態は、カメラのレリーズ操作後に、撮像素子107で撮像された画像を所定時間表示するフリーズ画と呼ばれる表示形態である。   Images captured by the image sensor 107 are displayed on the display unit 120 in two types. The first form is a display form when the release operation is not performed, and is a display form called a through image in which images repeatedly picked up by the image sensor 107 are sequentially updated and displayed. The second form is a display form called a freeze picture that displays an image picked up by the image pickup element 107 for a predetermined time after the release operation of the camera.

被写体検知部121は、デジタル信号処理部111に接続され、デジタル信号処理部111で各種処理が施された画像データに被写体が存在するか否かを検知する。被写体検知処理は、例えば色彩情報、彩度情報、コントラスト情報および輪郭情報のうち少なくとも1つを画像データから検出し、検出された情報に基づき被写体の領域を検知する。   The subject detection unit 121 is connected to the digital signal processing unit 111 and detects whether or not a subject exists in the image data subjected to various processes by the digital signal processing unit 111. In the subject detection process, for example, at least one of color information, saturation information, contrast information, and contour information is detected from the image data, and the region of the subject is detected based on the detected information.

なお、顔検知により人物の顔を検知し、検知された顔に基づき被写体検知を行ってもよい。例えば、顔検知により検知された顔の輪郭を取得し、この輪郭に対して連続的と見なせる輪郭をさらに検知し、被写体全体の輪郭とすることが考えられる。これに限らず、顔検知により検知された顔までの距離を計測し、計測された距離に対して所定範囲内で合焦した領域を被写体領域とすることも考えられる。   Note that a human face may be detected by face detection, and subject detection may be performed based on the detected face. For example, it is conceivable that the contour of the face detected by the face detection is acquired, the contour that can be considered continuous with respect to this contour is further detected, and the contour of the entire subject is obtained. Not limited to this, it is conceivable to measure the distance to the face detected by the face detection, and to set a region focused on the measured distance within a predetermined range as the subject region.

顔検知については、既に多くの手法が提案されて、実用化もされている。例えば、特開平8−63597号公報では、人の顔の形状に相当する顔候補領域を決定し、この顔候補領域の特徴量から顔領域を決定するような手法が提案されている。また、画像から人の顔の輪郭を抽出することにより顔候補領域を検出する手法や、顔の様々な形状をした複数のテンプレートとの相関値を計算し、この相関値に基づいて顔候補領域とする手法が提案されている。   Many methods for face detection have already been proposed and put into practical use. For example, Japanese Patent Laid-Open No. 8-63597 proposes a method of determining a face candidate area corresponding to the shape of a human face and determining the face area from the feature amount of the face candidate area. In addition, a method for detecting a face candidate area by extracting the outline of a human face from an image and a correlation value with a plurality of templates having various shapes of the face are calculated, and the face candidate area is calculated based on the correlation value. A method has been proposed.

操作部122は、システムコントローラ112に接続され、撮像装置100に対するユーザ操作を受け付ける。操作部122は、例えばカメラの電源をオン/オフするための電源スイッチ、レリーズボタン、人物撮影モードなどの撮影モードを選択するための設定ボタンなど、撮像装置100を操作するための種々の操作子が設けられる。ユーザによりこれらの操作子が操作されると、その操作に応じた信号がシステムコントローラ112に入力される。なお、レリーズボタンには、撮影者により操作されるレリーズボタンの第1ストローク操作(半押し操作)によりONする第1のスイッチ(SW)と、レリーズボタンの第2ストローク操作(全押し操作)によりONする第2のSWとが接続されている。   The operation unit 122 is connected to the system controller 112 and receives a user operation on the imaging apparatus 100. The operation unit 122 includes various operators for operating the imaging apparatus 100, such as a power switch for turning on / off the camera, a release button, and a setting button for selecting a shooting mode such as a person shooting mode. Is provided. When these operators are operated by the user, a signal corresponding to the operation is input to the system controller 112. The release button includes a first switch (SW) that is turned on by a first stroke operation (half-press operation) of the release button operated by the photographer and a second stroke operation (full-press operation) of the release button. A second SW that is turned on is connected.

次に、図2および図3を用いて、撮像用画素と焦点検出用画素を備えた撮像素子107の一例の構造について説明する。   Next, the structure of an example of the image sensor 107 including the imaging pixels and the focus detection pixels will be described with reference to FIGS.

図2は、撮像用画素に係る、撮像素子107を含む撮像光学系について概略的に説明する。図2(a)に示す2行×2列の4画素のうち、対角2画素にG(緑色)の分光感度を有する画素を配置し、他の2画素にR(赤色)とB(青色)の分光感度を有する画素を各1個配置した、ベイヤー配列が採用されている。そして、このベイヤー配列の間に、後述する構造の焦点検出用画素が所定の規則にて分散配置される。   FIG. 2 schematically illustrates an imaging optical system including the imaging element 107 related to the imaging pixels. Of the four pixels of 2 rows × 2 columns shown in FIG. 2A, pixels having G (green) spectral sensitivity are arranged in the diagonal two pixels, and R (red) and B (blue) are arranged in the other two pixels. The Bayer arrangement is employed in which one pixel having a spectral sensitivity of 1) is arranged. In addition, focus detection pixels having a structure described later are distributed and arranged in a predetermined rule between the Bayer arrays.

図2(b)は、図2(a)におけるA−A断面図を示す。フォトダイオードPDは、CMOSイメージセンサの光電変換素子であって、それぞれ画素を構成する。コンタクトレイヤCLは、CMOSイメージセンサ内において各種信号を伝達する信号線を形成する配線層である。各画素に対して、赤色のカラーフィルタCF、緑色のカラーフィルタCFおよび青色のカラーフィルタCFが、図2(a)の如くベイヤ配列で配置される。各画素の最前面に対して、オンチップマイクロレンズMLが配置される。 FIG.2 (b) shows the AA sectional drawing in Fig.2 (a). The photodiode PD is a photoelectric conversion element of a CMOS image sensor and constitutes a pixel. The contact layer CL is a wiring layer that forms signal lines for transmitting various signals in the CMOS image sensor. For each pixel, a red color filter CF R , a green color filter CF G and a blue color filter CF B are arranged in a Bayer array as shown in FIG. On-chip microlenses ML are arranged on the forefront of each pixel.

被写体からの光が光学撮影レンズTL(Taking Lens)を介してオンチップマイクロレンズMLに入射されて集光される。集光された光は、例えばカラーフィルタCFにより赤色の波長成分を抽出されてフォトダイオードPDに入射される。フォトダイオードPDは、入射された光を光電変換により電荷に変換する。 Light from the subject is incident on the on-chip microlens ML via an optical photographing lens TL (Taking Lens) and is condensed. Condensed light is incident on the photodiode PD, for example, the extracted red wavelength components by the color filter CF R. The photodiode PD converts incident light into electric charge by photoelectric conversion.

ここで、撮像用画素のオンチップマイクロレンズMLとフォトダイオードPDは、光学撮影レンズTLを通過した光束を可能な限り有効に取り込むように構成される。換言すると、光学撮影レンズTLの射出瞳EP(Exit Pupil)とフォトダイオードPDは、オンチップマイクロレンズMLにより共役関係にあり、且つ、フォトダイオードPDの有効面積は、大面積に設計される。   Here, the on-chip microlens ML and the photodiode PD of the imaging pixel are configured to capture the light beam that has passed through the optical photographing lens TL as effectively as possible. In other words, the exit pupil EP (Exit Pupil) of the optical photographing lens TL and the photodiode PD are conjugated with each other by the on-chip microlens ML, and the effective area of the photodiode PD is designed to be large.

なお、カラーフィルタCF、CFおよびCFに対応する画素(以下、それぞれR画素、G画素およびB画素と呼ぶ)は、同一の構造となっている。したがって、撮像用のR、GおよびBの各画素に対応した射出瞳EPは大径となり、被写体からの光をフォトダイオードPDに効率よく取り込むことができ、撮像素子から出力される撮像信号のS/Nを向上させている。 The pixels corresponding to the color filters CF R , CF G, and CF B (hereinafter referred to as R pixel, G pixel, and B pixel, respectively) have the same structure. Accordingly, the exit pupil EP corresponding to each of the R, G, and B pixels for imaging has a large diameter, and light from the subject can be efficiently taken into the photodiode PD, and S of the imaging signal output from the imaging element can be obtained. / N is improved.

このベイヤ配列の間に、瞳分割位相差方式による焦点検出を行うための焦点検出用画素を配置する。より具体的には、ベイヤ配列を構成する2行×2列の画素のうち、G画素は撮像用画素として残し、R画素とB画素とを焦点検出用画素に置き換える。   Focus detection pixels for performing focus detection by the pupil division phase difference method are arranged between the Bayer arrays. More specifically, among the 2 rows × 2 columns of pixels constituting the Bayer array, the G pixel is left as an imaging pixel, and the R pixel and the B pixel are replaced with focus detection pixels.

記録や表示のための画像信号を得る場合、G画素で輝度情報の主成分を取得する。人間の画像認識特性は、輝度情報に敏感であるため、このG画素が欠けると画質劣化が認知されやすい。一方、R画素またはB画素は、主に色情報(色差情報)を取得する。ここで、人間の画像認識特性は、輝度情報に比べて色情報には鈍感である。そのため、色情報を取得するR画素やB画素は、多少の欠損が生じても画質劣化が認知され難い。   When obtaining an image signal for recording or display, the main component of luminance information is acquired by G pixels. Since human image recognition characteristics are sensitive to luminance information, if this G pixel is missing, image quality degradation is likely to be perceived. On the other hand, the R pixel or the B pixel mainly acquires color information (color difference information). Here, human image recognition characteristics are less sensitive to color information than luminance information. For this reason, it is difficult for the R pixel and B pixel for obtaining the color information to recognize the image quality deterioration even if some loss occurs.

図3を用いて、焦点検出用画素に係る、撮像素子107を含む撮像光学系について概略的に説明する。図3(a)は、焦点検出用画素を含む2行×2列の画素の一例の平面図を示す。また、図3(b)は、撮像光学系の、図3(a)におけるA−A面による一例の断面図を示す。図3(b)において、オンチップマイクロレンズMLおよびフォトダイオードPDは、上述の図2(b)に示した構造と同一である。   An image pickup optical system including the image pickup element 107 related to the focus detection pixel will be schematically described with reference to FIG. FIG. 3A shows a plan view of an example of pixels of 2 rows × 2 columns including focus detection pixels. FIG. 3B is a cross-sectional view of an example of the imaging optical system taken along plane AA in FIG. In FIG. 3B, the on-chip microlens ML and the photodiode PD have the same structure as that shown in FIG.

図3(a)において、画素SHAおよび画素SHBが焦点検出を行うための画素である。以下、画素SHAおよび画素SHBをまとめて焦点検出用画素と呼ぶ。また、図3(a)中、画素SHAおよび画素SHBにおける塗り潰し部分は、配線層CLの開口部である。すなわち、焦点検出用画素に照射された光は、この配線層CLの開口部を通って、フォトダイオードPDに入射される。なお、焦点検出用画素による信号は、画像生成には用いないため、画素SHAおよび画素SHBに対し、透明膜によるフィルタCFが配置される。 In FIG. 3A, a pixel S HA and a pixel S HB are pixels for performing focus detection. Hereinafter, the pixel S HA and the pixel S HB are collectively referred to as a focus detection pixel. In FIG. 3A, the filled portions in the pixels S HA and S HB are openings of the wiring layer CL. That is, the light irradiated to the focus detection pixels is incident on the photodiode PD through the opening of the wiring layer CL. The signal due to the focus detection pixels, is not used for image generation, to the pixel S HA and the pixel S HB, filter CF W by the transparent film is arranged.

図3の例では、画素SHAに対応する開口部OPHA、ならびに、画素SHBに対応する開口部OPHBは、オンチップマイクロレンズMLの中心線に対して一方向に偏倚して設けられる。これにより、撮像素子による瞳分割が行われる。 In the example of FIG. 3, the opening OP HA corresponding to the pixel S HA, and, the opening OP HB corresponding to the pixel S HB, is provided offset in one direction from the center line of the on-chip microlens ML . Thereby, pupil division by an image sensor is performed.

具体的には、画素SHAに対応する開口部OPHAは、図3上で右側に偏倚しているため、光学撮影レンズTLの左側の射出瞳EPHAを通過した光束を受光する。同様に、画素SHBに対応する開口部OPHBは、図3上で左側に偏倚しているため、光学撮影レンズTLの右側の射出瞳EPHBを通過した光束を受光する。 Specifically, since the opening OP HA corresponding to the pixel S HA is biased to the right side in FIG. 3, it receives the light beam that has passed through the left exit pupil EP HA of the optical photographing lens TL. Similarly, since the opening OP HB corresponding to the pixel S HB is biased to the left in FIG. 3, it receives the light beam that has passed through the right exit pupil EP HB of the optical photographing lens TL.

画素SHAを水平方向に規則的に配列し、これらの画素群で取得した被写体像を像Aとする。また、画素SHBも同様にして水平方向に規則的に配列し、これらの画素群で取得した被写体像を像Bとする。像Aと像Bとの相対位置を検出することで、被写体像のピントずれ量(デフォーカス量)が検出できる。 Pixels SHA are regularly arranged in the horizontal direction, and a subject image acquired by these pixel groups is defined as an image A. Similarly, the pixels SHB are regularly arranged in the horizontal direction, and a subject image acquired by these pixel groups is defined as an image B. By detecting the relative position between the image A and the image B, the amount of defocus (defocus amount) of the subject image can be detected.

図4は、撮像素子107上の撮像用画素と焦点検出用画素の一例の配置を示す。例えば、10行×10列=100画素の正方形領域を1つのブロックBLKと定義する。画像信号による画面内をこのブロックBLK単位に分割する。このブロックBLKを焦点検出領域として、焦点検出領域毎に焦点検出用画素を設ける。   FIG. 4 shows an exemplary arrangement of imaging pixels and focus detection pixels on the image sensor 107. For example, a square area of 10 rows × 10 columns = 100 pixels is defined as one block BLK. The screen based on the image signal is divided into blocks BLK. With this block BLK as a focus detection area, focus detection pixels are provided for each focus detection area.

左上のブロックBLKh(1,1)において、左下隅のR画素およびB画素を、水平方向に瞳分割を行なう1組の焦点検出用画素SHAおよびSHBでそれぞれ置き換える。ブロックBLKh(1,1)の右隣りのブロックBLKv(1,2)では、左下隅のR画素およびB画素を、垂直方向に瞳分割を行なう1組の焦点検出用画素SVCおよびSVDでそれぞれ置き換える。なお、焦点検出用画素SVCおよびSVDは、焦点検出用画素SHAおよびSHBとそれぞれ同様の構造を有する。ブロックBLKh(1,1)の下に隣接したブロックBLKv(2,1)の画素配列は、ブロックBLKv(1,2)と同一とする。また、ブロックBLKv(2,1)の右隣りのブロックBLKh(2,2)の画素配列は、ブロックBLKh(1,1)と同一とする。 In the upper left block BLKh (1, 1), the R pixel and the B pixel at the lower left corner are respectively replaced with a set of focus detection pixels S HA and S HB that perform pupil division in the horizontal direction. In the block BLKv (1, 2) on the right side of the block BLKh (1, 1), a pair of focus detection pixels S VC and S VD that perform pupil division in the vertical direction on the R pixel and B pixel in the lower left corner. Replace each one. The focus detection pixels S VC and S VD have the same structure as the focus detection pixels S HA and S HB , respectively. The pixel arrangement of the block BLKv (2, 1) adjacent below the block BLKh (1, 1) is the same as that of the block BLKv (1, 2). The pixel arrangement of the block BLKh (2, 2) on the right side of the block BLKv (2, 1) is the same as that of the block BLKh (1, 1).

この配置規則を一般化すると、ブロックBLK(i,j)において、(i+j)が偶数であれば水平瞳分割用の焦点検出用画素SHAおよびSHBを配置しする。一方、(i+j)が奇数であれば垂直瞳分割用の焦点検出用画素SVCおよびSVDを配置する。このように、焦点検出用画素が撮像信号による画面全体にわたり配置される。 When this arrangement rule is generalized, in block BLK (i, j), if (i + j) is an even number, focus detection pixels S HA and S HB for horizontal pupil division are arranged. On the other hand, if (i + j) is an odd number, focus detection pixels S VC and S VD for vertical pupil division are arranged. Thus, the focus detection pixels are arranged over the entire screen based on the imaging signal.

なお、ブロックBLKh(i,j)は、水平瞳分割用の焦点検出用画素SHAおよびSHBが配置されるブロックBLKを示す。また、ブロックBLKv(i,j)は、垂直瞳分割用の焦点検出用画素SVCおよびSVDが配置されるブロックBLKを示すものとする。 The block BLKh (i, j) indicates the block BLK in which the focus detection pixels S HA and S HB for horizontal pupil division are arranged. The block BLKv (i, j) represents the block BLK in which the focus detection pixels S VC and S VD for vertical pupil division are arranged.

ここで、上記の撮像素子107の焦点検出用画素から取得した被写体像であるA像とB像から焦点ずれ量を検出する信号処理方法について説明する。焦点検出用画素を構成する画素数を画素数Lとし、画素番号i(i=0,…,L)としたときのA像の信号を信号A(i)、B像の信号を信号B(i)とする。このとき、下記の式(1)または式(2)を、k≦k≦kについて演算する。

Figure 0005289105
Figure 0005289105
Here, a signal processing method for detecting the defocus amount from the A image and the B image that are subject images acquired from the focus detection pixels of the image sensor 107 will be described. When the number of pixels constituting the focus detection pixel is L and the pixel number is i (i = 0,..., L), the A image signal is the signal A (i), and the B image signal is the signal B ( i). At this time, the following formula (1) or formula (2) is calculated for k 1 ≦ k ≦ k 2 .
Figure 0005289105
Figure 0005289105

なお、値Mは(M=L−|k|)で表される演算画素数であり、値kは、相対変移量と呼ばれ、値kおよび値kは、一般的には、−L/2、L/2にとらえることが多い。また、max{a,b}なる演算子は、値aおよび値bから大なるものを抽出することを表し、min{a,b}なる演算子、値aおよび値bから小なるものを抽出することを表す。したがって、上述の式(1)および式(2)におけるX(k)、X(k)、Y(k)およびY(k)は広義の相関量と考えることができる。 The value M is the number of operation pixels represented by (M = L− | k |), the value k is called a relative shift amount, and the value k 1 and the value k 2 are generally − In many cases, it is considered as L / 2 or L / 2. Further, the operator max {a, b} indicates that the larger one is extracted from the value a and the value b, and the operator smaller than the min {a, b}, the value a and the value b is extracted. Represents what to do. Therefore, X 1 (k), X 2 (k), Y 1 (k), and Y 2 (k) in the above formulas (1) and (2) can be considered as broad correlation amounts.

さらに、上述の式(1)および式(2)を詳細に見ると、値X(k)および値Y(k)は、実際には、値(k−1)の変位における相関量を、値X(k)および値Y(k)は、値(k+1)の変位における相関量をそれぞれ表している。故に、相関量X(k)およびX(k)の差である評価量X(k)は、相対変位量kにおける被写体像信号A(i)およびB(i)の相関量の変化量を意味する。 Further, when the above formulas (1) and (2) are examined in detail, the value X 1 (k) and the value Y 1 (k) actually indicate the correlation amount in the displacement of the value (k−1). , Value X 2 (k) and value Y 2 (k) represent the correlation amounts in the displacement of value (k + 1), respectively. Therefore, the evaluation amount X (k), which is the difference between the correlation amounts X 1 (k) and X 2 (k), is the amount of change in the correlation amount of the subject image signals A (i) and B (i) at the relative displacement amount k. Means.

相関量X(k)およびX(k)は、上述の定義より、A像およびB像の相関が最も高いときに最小となる。よって、その変化量である評価量X(k)は、相関が最も高いときに値が0で、かつ傾きは負となるはずである。ところが、評価量X(k)は、離散データであるから、実際には下記の式(3)のようになる。
X(kp)≧0,X(kp+1)<0 …(3)
The correlation amounts X 1 (k) and X 2 (k) are minimum when the correlation between the A image and the B image is the highest from the above definition. Therefore, the evaluation amount X (k) that is the amount of change should have a value of 0 and a slope of negative when the correlation is highest. However, since the evaluation amount X (k) is discrete data, the following equation (3) is actually obtained.
X (kp) ≧ 0, X (kp + 1) <0 (3)

さらに、値{X(kp)−X(kp+1)}が最大になる相対変位の区間〔kp,kp+1〕に相関量のピークが存在すると考えて、下記の式(4)による補間演算を行い、画素単位以下の焦点ズレ量PRを検出することができる。
PR=kp+X(kp)/{X(kp)−X(kp+1)} …(4)
Further, assuming that there is a peak of the correlation amount in the relative displacement interval [kp, kp + 1] where the value {X (kp) −X (kp + 1)} is maximum, an interpolation calculation is performed according to the following equation (4): It is possible to detect a focus shift amount PR equal to or less than a pixel unit.
PR = kp + X (kp) / {X (kp) -X (kp + 1)} (4)

一方、相関量Y(k)およびY2(k)は、上述の定義より、A像およびB像の相関が最も高いときに、相関量X(k)およびX(k)とは逆に最大となる。よって、その変化量である評価量Y(k)は、A像およびB像の相関が最も高いときに値が0で、かつ傾きは正となるはずである。評価量Y(k)も上述の評価量X(k)と同様に離散データであるから、実際には、下記の式(5)のようになる。
Y(kp)≦0,Y(kp+1)>0 …(5)
On the other hand, the correlation amounts Y 1 (k) and Y 2 (k) are opposite to the correlation amounts X 1 (k) and X 2 (k) when the correlation between the A image and the B image is highest from the above definition. To the maximum. Therefore, the evaluation amount Y (k) that is the amount of change should have a value of 0 and a positive slope when the correlation between the A and B images is the highest. Since the evaluation amount Y (k) is also discrete data like the above-described evaluation amount X (k), the following equation (5) is actually obtained.
Y (kp) ≦ 0, Y (kp + 1)> 0 (5)

さらに、値{Y(kp)−Y(kp+1)}が最大のときに、下記の式(6)による補間演算を行い、画素単位以下の焦点ずれ量PRを検出することできる。
PR=kp+|Y(kp)/{Y(kp)−Y(kp+1)}| …(6)
Further, when the value {Y (kp) −Y (kp + 1)} is the maximum, an interpolation calculation according to the following equation (6) can be performed to detect a defocus amount PR equal to or less than a pixel unit.
PR = kp + | Y (kp) / {Y (kp) −Y (kp + 1)} | (6)

上述の式(4)、あるいは、式(6)で求めた焦点ずれ量PRより、被写体像面の予定結像面に対するデフォーカス量DEFを、下記の式(7)で求めることができる。なお、値は、一対の測距瞳を通過する光束の重心の開き角の大きさによって決まる変換係数である。
DEF=K×PR …(7)
The defocus amount DEF of the subject image plane with respect to the planned image formation plane can be obtained from the following equation (7) from the defocus amount PR obtained in the above equation (4) or equation (6). The value is a conversion coefficient determined by the size of the opening angle of the center of gravity of the light beam passing through the pair of distance measuring pupils.
DEF = K × PR (7)

<実施形態>
次に、本発明の実施形態について、図5のフローチャートを用いて説明する。図5は、本発明の実施形態に適用可能な一例の撮像処理を示すフローチャートである。本実施形態による撮像処理は、撮像画像から被写体の領域を検知し、被写体の領域毎にデフォーカス量DEFを検出する。こうしてデフォーカス量検知を行いことで、被写体に注目したデフォーカス量DEFの分布を得る。この得られたデフォーカス量分布に基づき、撮影者が意図した被写体の領域(被写体領域)のみに画像処理を施す。なお、以下では、画像処理として、画像の輪郭などを暈かすボケ付加処理を例に挙げて説明する。
<Embodiment>
Next, an embodiment of the present invention will be described using the flowchart of FIG. FIG. 5 is a flowchart showing an example of imaging processing applicable to the embodiment of the present invention. In the imaging processing according to the present embodiment, a subject area is detected from a captured image, and a defocus amount DEF is detected for each subject area. By performing defocus amount detection in this way, a distribution of the defocus amount DEF focused on the subject is obtained. Based on the obtained defocus amount distribution, image processing is performed only on a subject region (subject region) intended by the photographer. In the following description, as an image process, a blur addition process for blurring the outline of an image will be described as an example.

最初のステップS101では、システムコントローラ112は、操作部122に設けられたレリーズスイッチにおける第1のSWが操作されるのを待機する。第1のSWが操作されたら、処理はステップS102に移行される。   In first step S <b> 101, the system controller 112 waits for the operation of the first SW in the release switch provided in the operation unit 122. If the first SW is operated, the process proceeds to step S102.

ステップS102では、被写体に対して焦点を合わせるよう撮影レンズ101の駆動制御を行うAF処理を実行する。AFの測距方式については、焦点検出部108を用いる位相差方式であってもよい。また、撮影レンズ101によって結像される被写体像を撮像素子107で撮像し、フォーカスエリア内の撮像信号を用いて合焦位置を決定するコントラスト方式であってもよい。さらに、撮像素子107に配置された焦点検出用画素を用いる位相差方式であってもよい。   In step S102, an AF process for controlling the driving of the photographing lens 101 so as to focus on the subject is executed. The AF distance measurement method may be a phase difference method using the focus detection unit 108. In addition, a contrast method may be used in which a subject image formed by the photographing lens 101 is captured by the image sensor 107 and an in-focus position is determined using an image signal in the focus area. Further, a phase difference method using focus detection pixels arranged in the image sensor 107 may be used.

ステップS102のAF処理により被写体に焦点が合わせられると、処理がステップS103に移行される。ステップS103では、システムコントローラ112は、操作部122に設けられたレリーズスイッチにおける第2のSWが操作されるのを待機する。第2のSWが操作されたら、処理はステップS104に移行される。   When the subject is focused by the AF process in step S102, the process proceeds to step S103. In step S <b> 103, the system controller 112 waits for the second SW in the release switch provided in the operation unit 122 to be operated. If the second SW is operated, the process proceeds to step S104.

ステップS104では、システムコントローラ112は、ミラー駆動部114を制御して主ミラー102を撮影光束外へ駆動させ、撮像素子駆動部115を制御して撮像素子107を駆動させる。被写体光学像が撮像レンズを通過して撮像素子107に結像され、撮像素子107から撮像信号が出力される。この撮像信号は、撮像用画素による画像信号と、焦点検出用画素による被写体像信号とを含む。撮像素子107から出力された撮像信号がアナログ信号処理部109およびA/D変換器110を介して画像データとされ、デジタル信号処理部111に供給される。デジタル信号処理部111は、この画像データから、撮像素子107の撮像用画素による画像データと、焦点検出用画素による画像データとをそれぞれ取得し、一旦バッファメモリ116に記憶させる。   In step S <b> 104, the system controller 112 controls the mirror driving unit 114 to drive the main mirror 102 out of the imaging light beam, and controls the image sensor driving unit 115 to drive the image sensor 107. The subject optical image passes through the imaging lens and is formed on the imaging element 107, and an imaging signal is output from the imaging element 107. This imaging signal includes an image signal from the imaging pixels and a subject image signal from the focus detection pixels. The imaging signal output from the imaging element 107 is converted into image data via the analog signal processing unit 109 and the A / D converter 110 and supplied to the digital signal processing unit 111. The digital signal processing unit 111 acquires, from the image data, image data obtained by the imaging pixels of the imaging device 107 and image data obtained by the focus detection pixels, and temporarily stores them in the buffer memory 116.

次のステップS105では、デジタル信号処理部111により、ステップS104で取得した撮像用画素による画像データと、焦点検出用画素による画像データとに基づき、撮像用画素による画像データに対して画像処理が施される。詳細は後述するが、本実施形態では、この画像処理は、ボケ付加処理であるものとする。   In the next step S105, the digital signal processing unit 111 performs image processing on the image data of the imaging pixels based on the image data of the imaging pixels acquired in step S104 and the image data of the focus detection pixels. Is done. Although details will be described later, in the present embodiment, this image processing is assumed to be blurring addition processing.

ステップS105の処理が終了すると、処理はステップS106に移行される。ステップS106では、ステップS105で画像処理を施した画像データを、例えば外部記憶媒体118に記憶させる。   When the process of step S105 ends, the process proceeds to step S106. In step S106, the image data subjected to the image processing in step S105 is stored in, for example, the external storage medium 118.

次に、図6〜図8を用いて、上述のステップS105による画像処理について説明する。図6は、本実施形態による画像処理を示す一例のフローチャートを示す。また、図7は、撮像により得られた画像の例を示し、図8は、図7の画像における測距エリアの一例を示す。なお、図7および図8において、桝目は、図4を用いて説明した、1対の焦点検出用画素が配置されるブロックBLK(i,j)を示す。   Next, the image processing in step S105 described above will be described with reference to FIGS. FIG. 6 is a flowchart illustrating an example of image processing according to the present embodiment. FIG. 7 shows an example of an image obtained by imaging, and FIG. 8 shows an example of a distance measurement area in the image of FIG. 7 and 8, the squares indicate the blocks BLK (i, j) where the pair of focus detection pixels described with reference to FIG. 4 are arranged.

先ず、ステップS201で、デジタル信号処理部111は、バッファメモリ116に記憶した画像データから、撮像用画素の位置の画像データを読み出すと共に、焦点検出用画素の位置の画像データを読み出す。なお、以下では、撮像用画素の位置の画像データを撮像画像データと呼び、焦点検出用画素の位置の画像データを被写体像画像データと呼ぶ。これら撮像画像データおよび被写体像画像データは、被写体検知部121に供給される。   First, in step S <b> 201, the digital signal processing unit 111 reads out image data at the position of the imaging pixel and image data at the position of the focus detection pixel from the image data stored in the buffer memory 116. Hereinafter, the image data at the position of the imaging pixel is referred to as captured image data, and the image data at the position of the focus detection pixel is referred to as subject image image data. These captured image data and subject image data are supplied to the subject detection unit 121.

次のステップS202で、被写体検知手段としての被写体検知部121により、例えば撮像画像データから検出される色彩情報、彩度情報、コントラスト情報および輪郭情報などに基づき被写体の領域が検知される。図7の例では、被写体検知部121は、撮像画像データから被写体a〜dを検知し、検知された被写体の撮像画像データにおける領域を特定する。ここで、被写体a、cおよびdが人物であり、被写体bがボールであるものとする。また、被写体aが、主たる被写体とされる主被写体であるものとする。   In the next step S202, a subject region is detected by the subject detection unit 121 as a subject detection unit based on, for example, color information, saturation information, contrast information, and contour information detected from captured image data. In the example of FIG. 7, the subject detection unit 121 detects the subjects a to d from the captured image data, and specifies a region in the captured image data of the detected subject. Here, it is assumed that the subjects a, c, and d are people and the subject b is a ball. In addition, it is assumed that the subject a is a main subject that is a main subject.

次のステップS203で、デジタル信号処理部111によりステップS202で被写体を検知できたかどうかが判断される。若し、被写体を検知できなかったと判断されたら、図6のフローチャートによる一連の処理が終了され、処理が図5のフローチャートのステップS106に移行される。   In the next step S203, the digital signal processing unit 111 determines whether or not the subject has been detected in step S202. If it is determined that the subject has not been detected, the series of processes in the flowchart of FIG. 6 is terminated, and the process proceeds to step S106 in the flowchart of FIG.

一方、ステップS203において被写体を検知できたと判断されたら、処理はステップS204に移行される。ステップS204では、デフォーカス量検出手段としてのデジタル信号処理部111により、ステップS202で検知した被写体の領域のそれぞれについて、当該領域に対応する撮像素子107のブロックBLK毎に、デフォーカス量が検出される。そして、代表値算出手段としてのデジタル信号処理部111により、当該被写体の領域のデフォーカス量を代表する代表値である代表デフォーカス量が算出される。   On the other hand, if it is determined in step S203 that the subject has been detected, the process proceeds to step S204. In step S204, the defocus amount is detected for each block BLK of the image sensor 107 corresponding to the subject area detected by step S202 by the digital signal processing unit 111 serving as a defocus amount detecting unit. The Then, the digital signal processing unit 111 serving as a representative value calculating unit calculates a representative defocus amount that is a representative value representing the defocus amount of the subject area.

図7および図8の例では、図7に例示される、例えば被写体aの領域を含むブロックBLKは、図8に例示される測距エリアAを形成する。同様に、図7の被写体b〜dの領域を含むブロックBLKは、それぞれ図8に例示される測距エリアC〜Dを形成する。   In the example of FIGS. 7 and 8, the block BLK including, for example, the region of the subject a illustrated in FIG. 7 forms a distance measurement area A illustrated in FIG. Similarly, the blocks BLK including the areas of the subjects b to d in FIG. 7 form distance measuring areas C to D illustrated in FIG. 8 respectively.

なお、検知した1の被写体の領域内で異なる複数のデフォーカス量が検出された場合に、当該1の被写体の領域に対して1のデフォーカス量(代表デフォーカス量)を対応付ける。例えば、1の被写体の領域から検出された複数のデフォーカス量の平均値を代表デフォーカス量として、当該1の被写体の領域に対応付ける。   When a plurality of different defocus amounts are detected in the detected one subject region, one defocus amount (representative defocus amount) is associated with the one subject region. For example, an average value of a plurality of defocus amounts detected from one subject region is used as a representative defocus amount, and is associated with the one subject region.

これに限らず、1の被写体の領域に含まれる複数のブロックBLKによる複数のデフォーカス量のうち、最も手前側で検出されたデフォーカス量を、代表デフォーカス量として選択することもできる。また、1の被写体の領域に含まれる複数のブロックBLKによるデフォーカス量のうち、像画像のS/Nが最も高いデフォーカス量を、代表デフォーカス量として用いてもよい。   However, the present invention is not limited to this, and the defocus amount detected at the foremost side among the plurality of defocus amounts by the plurality of blocks BLK included in one subject region can be selected as the representative defocus amount. Further, the defocus amount having the highest S / N of the image image among the defocus amounts by the plurality of blocks BLK included in one subject area may be used as the representative defocus amount.

図7に示す撮影した画像例において、被写体の領域a〜dに対応する図8に示す測距エリアA〜Dで、それぞれ代表デフォーカス量を検出する。これにより、撮像された画像データによる画面内におけるデフォーカス量の分布を、被写体単位で検出することができる。   In the photographed image example shown in FIG. 7, the representative defocus amounts are detected in the ranging areas A to D shown in FIG. 8 corresponding to the areas a to d of the subject, respectively. Thereby, the distribution of the defocus amount in the screen based on the captured image data can be detected in units of subjects.

ステップS204で測距エリアそれぞれの代表デフォーカス量が検出されると、処理はステップS205に移行される。ステップS205では、画像処理手段としてのデジタル信号処理部111により、被写体検知部121で検知した被写体の領域毎に、当該領域に対応する代表デフォーカス量と、所定に設定される画像処理制御パラメータに基づき画像処理が施される。すなわち、デジタル信号処理部111では、被写体領域に対して代表デフォーカス量に応じた強度で、被写体毎に共通した画像処理が適用される。また、この画像処理の際に、画像処理制御パラメータが処理強度に加味される。画像処理が完了すると、図6のフローチャートによる一連の処理が終了され、処理が図5のフローチャートのステップS106に移行される。   When the representative defocus amount of each distance measurement area is detected in step S204, the process proceeds to step S205. In step S205, for each region of the subject detected by the subject detection unit 121 by the digital signal processing unit 111 as an image processing unit, a representative defocus amount corresponding to the region and an image processing control parameter set in advance are set. Based on this, image processing is performed. That is, the digital signal processing unit 111 applies image processing common to each subject with an intensity corresponding to the representative defocus amount with respect to the subject region. Further, in the image processing, the image processing control parameter is added to the processing intensity. When the image processing is completed, a series of processes according to the flowchart of FIG. 6 is terminated, and the process proceeds to step S106 of the flowchart of FIG.

上述したステップS205における画像処理について、より詳細に説明する。本実施形態では、画像処理の例として、画像に対してボケを付加するボケ付加処理を説明する。また、以下の説明において、被写体検知部121で検知された被写体の領域を部分画像Pnとして表す。ただし、添字nは、被写体の領域を表す変数であり、図7の例では、被写体a〜dに対して、部分画像Pnが部分画像Pa、Pb、PcおよびPdとなる。   The image processing in step S205 described above will be described in more detail. In this embodiment, as an example of image processing, a blur addition process for adding blur to an image will be described. In the following description, the area of the subject detected by the subject detection unit 121 is represented as a partial image Pn. However, the subscript n is a variable representing the area of the subject. In the example of FIG. 7, the partial image Pn becomes the partial images Pa, Pb, Pc and Pd for the subjects a to d.

部分画像Pn(x,y)のそれぞれに対して、下記の式(8)に示されるように、正規分布関数N(i,j)を畳み込み演算(フィルタリング演算)し、処理済み部分画像On(x,y)をそれぞれ生成する。すなわち被写体領域毎にこの畳み込み演算が行われる。なお、式(8)において、演算子「*」は、2次元の畳み込み演算を表す。
On(x,y)=Pn(x,y)*N(i,j) …(8)
For each of the partial images Pn (x, y), a normal distribution function N (i, j) is subjected to a convolution operation (filtering operation) as shown in the following equation (8), and a processed partial image On ( x, y) are generated respectively. That is, this convolution calculation is performed for each subject area. In Expression (8), the operator “*” represents a two-dimensional convolution operation.
On (x, y) = Pn (x, y) * N (i, j) (8)

正規分布関数N(i,j)は、次式(9)で表される。
N(i,j)=1/sqrt(2πσ2)×exp(−(i2+j2)/(2σ2)) …(9)
ただし、式(9)において、変数σは、標準偏差を表し、σ=0のとき、正規分布関数N(i,j)の値が1をとるものとする。
The normal distribution function N (i, j) is expressed by the following equation (9).
N (i, j) = 1 / sqrt (2πσ 2 ) × exp (− (i 2 + j 2 ) / (2σ 2 )) (9)
However, in equation (9), the variable σ represents the standard deviation, and when σ = 0, the value of the normal distribution function N (i, j) is 1.

いま、標準偏差σを、次式(10)のように定義する。
σ=|dn|/f …(10)
ただし、式(10)において、値fは、画像処理制御パラメータであり、値dnは、各部分画像Pnの代表デフォーカス量である。
Now, the standard deviation σ is defined as in the following equation (10).
σ = | dn | / f (10)
However, in Expression (10), the value f is an image processing control parameter, and the value dn is a representative defocus amount of each partial image Pn.

ここで、画像処理制御パラメータfの設定方法を図9を用いて説明する。図9は、図7に示す撮影画像例における各被写体a〜dによる各部分画像Pa、Pb、PcおよびPdのデフォーカス量dnの例を示す。また、図9に対して、画像処理制御パラメータfを概念的に示す。なお、図9では、図7に示す撮影した画像例における部分画像Pa、Pb、PcおよびPd(被写体a〜d)に対応したデフォーカス量を、それぞれデフォーカス量da、db、dcおよびddで表している。また、装着された撮影レンズ101の絞り開放時の被写界深度の例を、被写界深度301で示す。   Here, a method of setting the image processing control parameter f will be described with reference to FIG. FIG. 9 shows an example of defocus amounts dn of the partial images Pa, Pb, Pc and Pd by the subjects a to d in the photographed image example shown in FIG. Further, the image processing control parameter f is conceptually shown in FIG. In FIG. 9, the defocus amounts corresponding to the partial images Pa, Pb, Pc and Pd (subjects a to d) in the photographed image example shown in FIG. 7 are defocus amounts da, db, dc and dd, respectively. Represents. An example of the depth of field when the aperture of the attached photographing lens 101 is opened is indicated by a depth of field 301.

図9によれば、部分画像Paが合焦状態にあり、デフォーカス量daは0である。部分画像Pbは、至近側にデフォーカス量dbでデフォーカスしている。また、部分画像PcおよびPdは、それぞれ無限遠側にデフォーカス量dcおよびddでデフォーカスしている。さらに、部分画像Pa、PbおよびPcが被写界深度301内にあることが示されている。   According to FIG. 9, the partial image Pa is in focus and the defocus amount da is zero. The partial image Pb is defocused by the defocus amount db on the closest side. The partial images Pc and Pd are defocused by defocus amounts dc and dd on the infinity side, respectively. Further, it is shown that the partial images Pa, Pb and Pc are within the depth of field 301.

画像処理制御パラメータfは、例えば装着されたレンズのF値を用いてFδという値が用いられる。ただし、δは許容錯乱円である。これに限らず、画像処理制御パラメータfは、操作部122の操作により手動で設定してもよい。このように設定した画像処理パラメータfにより、合焦した測距点のデフォーカス量を中心として±f/2の範囲内は主被写体、この範囲外は他の被写体と分類する。   As the image processing control parameter f, for example, a value of Fδ is used by using the F value of the attached lens. Where δ is an allowable circle of confusion. Not limited to this, the image processing control parameter f may be manually set by operating the operation unit 122. With the image processing parameter f set in this way, the main subject is classified within the range of ± f / 2 around the defocus amount of the focused distance measuring point, and the other subject is classified outside this range.

上述した式(10)により、標準偏差σの値は、デフォーカス量dnと画像処理制御パラメータfに応じて変化する。そのため、それぞれの部分画像Pnに加えられる画像処理の量も、デフォーカス量dnおよび画像処理制御パラメータfに伴い変化する。デフォーカス量dnが0のときは標準偏差σ=0となり、正規分布関数N(i,j)の値が1となる。したがって、式(8)の畳み込み演算において部分画像Pn(x,y)=処理済み部分画像On(x,y)となり、部分画像Pn(x,y)は変化しない。   The value of the standard deviation σ changes according to the defocus amount dn and the image processing control parameter f according to the above-described equation (10). Therefore, the amount of image processing applied to each partial image Pn also varies with the defocus amount dn and the image processing control parameter f. When the defocus amount dn is 0, the standard deviation σ = 0, and the value of the normal distribution function N (i, j) is 1. Therefore, in the convolution calculation of Expression (8), partial image Pn (x, y) = processed partial image On (x, y), and partial image Pn (x, y) does not change.

一方、デフォーカス量dnの絶対値が大きくなるほど、画像処理の強度が大きくなり、画像処理後の、デフォーカス量が0以外の部分画像Pnのボケ強度が大きくなる。また、デフォーカス量dnの絶対値が0でない場合、画像処理制御パラメータfの値が小さくなるほど、正規分布関数N(i,j)に従い画像処理の強度が大きくなり、画像処理後の部分画像Pnのボケ強度は大きくなる。   On the other hand, as the absolute value of the defocus amount dn increases, the intensity of the image processing increases, and the blur intensity of the partial image Pn having a defocus amount other than 0 after the image processing increases. If the absolute value of the defocus amount dn is not 0, the smaller the value of the image processing control parameter f, the greater the intensity of image processing according to the normal distribution function N (i, j), and the partial image Pn after image processing. The bokeh intensity increases.

換言すれば、画像処理制御パラメータfは、デジタル信号処理部111における画像処理による被写界深度を表すパラメータであるといえる。画像処理制御パラメータfは、合焦状態にある主被写体a以外の被写体にボケ付加処理を施そうとしたとき、主被写体aのみが、画像処理制御パラメータfに示される被写界深度内に入るように設定される。したがって、装着された撮影レンズ101の開放時の被写界深度301内に入っている主被写体a以外の被写体である被写体bおよびcに対してボケ付加処理を施すことができ、主被写体aを他の被写体b〜dに比べて相対的に際立たせることができる。   In other words, the image processing control parameter f can be said to be a parameter representing the depth of field by the image processing in the digital signal processing unit 111. The image processing control parameter f is set so that only the main subject a falls within the depth of field indicated by the image processing control parameter f when an object other than the main subject a in focus is to be subjected to blurring processing. Is set as follows. Accordingly, it is possible to perform the blur addition process on the subjects b and c that are subjects other than the main subject a that are within the depth of field 301 when the attached photographing lens 101 is opened. It can be made to stand out relative to the other subjects b to d.

画像処理制御パラメータfの設定によっては、装着した撮影レンズの口径より大口径の撮影レンズで撮影したボケ効果を、後処理により得ることができる。また、高輝度な被写体を撮影するときに、シャッター速度の高速側の限界を超えるために絞り開口を絞って露光量を調節する場合でも、絞り開口を大きくして撮影した場合のボケ効果を後処理により得ることができる。   Depending on the setting of the image processing control parameter f, it is possible to obtain a blur effect photographed with a photographing lens having a larger aperture than that of the mounted photographing lens by post-processing. Also, when shooting a high-brightness subject, the blurring effect when shooting with a large aperture opening is reduced even when adjusting the exposure amount by reducing the aperture opening to exceed the limit on the high-speed side of the shutter speed. It can be obtained by processing.

また、部分画像Pnに対して畳み込み演算する関数は、式(9)に示した正規分布関数に限定されず、他の分布関数によっても付加するボケ量の制御を行うことができる。また、部分画像Pnに施す画像処理は、ボケ付加処理に限定されない。例えば、デフォーカス量dnに応じたシャープネス処理を部分画像Pnに施してもよい。また例えば、コントラストや明度、彩度を、デフォーカス量dnに応じて部分画像Pn毎に変化させることも考えられる。   Further, the function for performing the convolution operation on the partial image Pn is not limited to the normal distribution function shown in Expression (9), and the amount of blur to be added can be controlled by other distribution functions. Further, the image processing applied to the partial image Pn is not limited to the blur addition processing. For example, sharpness processing corresponding to the defocus amount dn may be performed on the partial image Pn. Further, for example, it is conceivable to change the contrast, lightness, and saturation for each partial image Pn according to the defocus amount dn.

以上説明したように、本発明によれば、予め撮影した画像データから複数の被写体の領域を検知し、それぞれの被写体の領域毎にデフォーカス量を検出することで被写体に注目したデフォーカス量分布を得る。これにより、撮影者が意図した被写体の領域のみに画像処理を施すことができる。   As described above, according to the present invention, a defocus amount distribution focused on a subject by detecting a plurality of subject areas from pre-captured image data and detecting a defocus amount for each subject area. Get. As a result, image processing can be performed only on the area of the subject intended by the photographer.

Claims (9)

被写体像を光電変換して画像信号を生成し出力する撮像素子であって、撮像光学系の射出瞳の異なる領域を通った光束をそれぞれ独立に受光して得られた像信号を出力可能な撮像素子と、
前記撮像素子から出力された前記像信号の位相差に基づいて被写体のデフォーカス量を検出する焦点検出手段と、
前記撮像素子から出力された前記画像信号に対して被写体検知処理を行い、検知された被写体の領域に対応する前記撮像素子上の領域を特定する被写体検知手段とを有し
前記焦点検出手段は、前記被写体検知手段で特定された前記被写体域に対応する前記撮像素子上の領域から出力された前記像信号の位相差に基づいて、前記検知された被写体のデフォーカス量を検出することを特徴とする画像処理装置。
An imaging device that photoelectrically converts a subject image to generate and output an image signal, and that can output image signals obtained by independently receiving light beams that have passed through different areas of the exit pupil of the imaging optical system Elements,
Focus detection means for detecting the defocus amount of the object based on the phase difference between the image signal output from the imaging element,
Wherein performs subject detection processing on the image signal output from the imaging device, and an object detecting means for specifying a region on the imaging element corresponding to the sensed area of the photographic material was,
Said focus detecting means, based on the phase difference of the image signal output from the region on the imaging element corresponding to the realm of the subject identified by the subject detecting means, the defocusing of the sensed object An image processing apparatus for detecting an amount .
前記画像信号に対して所定の画像処理を適用する画像処理手段をさらに有し、Image processing means for applying predetermined image processing to the image signal;
前記画像処理手段は、前記被写体検知手段で特定された前記被写体の領域毎に、前記焦点検出手段で検出された前記デフォーカス量に応じて前記所定の画像処理を行うことを特徴とする請求項1に記載の画像処理装置。  The image processing means performs the predetermined image processing for each area of the subject specified by the subject detection means according to the defocus amount detected by the focus detection means. The image processing apparatus according to 1.
前記画像処理手段は、
前記画像信号に対してボケを付加するボケ付加処理を前記所定の画像処理として適用し、前記デフォーカス量が小さい前記被写体の領域ほど付加するボケ強度が小さくなるように、前記被写体の領域の画像信号にボケ付加処理を適用する
ことを特徴とする請求項に記載の画像処理装置。
The image processing means includes
A blur addition process for adding blur to the image signal is applied as the predetermined image processing, and the image of the subject area is reduced so that the blur intensity to be added becomes smaller as the subject area has a smaller defocus amount. The image processing apparatus according to claim 2 , wherein blur addition processing is applied to the signal .
前記焦点検出手段は、
前記被写体検知手段で特定された前記被写体領域に対応する前記撮像素子上の領域から出力された前記像信号の位相差に基づいて検出された前記デフォーカス量の平均値、当該デフォーカス量のうち合焦位置が最も手前で検知されたデフォーカス量、又は当該デフォーカス量のうち最も像信号のS/Nの高い前記デフォーカス量のうち何れかを前記被写体の領域に対応する前記デフォーカス量として検出する
ことを特徴とする請求項1乃至請求項3の何れか1項に記載の画像処理装置。
The focus detection means includes
Mean value of the defocus amount detected based on a phase difference of the image signal output from the region on the imaging element corresponding to a region of the object identified by the object detecting means, of the defocus amount defocus amount cormorants Chi-focus position is detected in the forefront, or any of the higher the defocus amount of S / N of the most image signals of the defocus amount, corresponding to a region of the subject the image processing apparatus according to any one of claims 1 to 3, characterized in that <br/> detected as the defocus amount.
前記被写体検知手段は、
前記画像信号から色彩情報、彩度情報、コントラスト情報および輪郭情報のうち少なくとも1つを検出し、検出された情報に基づき前記被写体を検知する
ことを特徴とする請求項1乃至請求項の何れか1項に記載の画像処理装置。
The subject detection means includes
Color information from the image signal, chroma information, detects at least one of the contrast information and contour information, any claims 1 to 4, characterized in that for detecting the object based on the detected information The image processing apparatus according to claim 1.
前記被写体検知手段は、
前記画像信号から顔を検知し、検知された顔に基づき前記被写体を検知する
ことを特徴とする請求項1乃至請求項の何れか1項に記載の画像処理装置。
The subject detection means includes
Wherein detecting a face from an image signal, the image processing apparatus according to any one of claims 1 to 4, characterized in that for detecting the object based on the detection face.
前記撮像素子は、前記画像信号を出力するための撮像用画素と、前記像信号を出力するための焦点検出用画素とを有する
とを特徴とする請求項1乃至の何れか1項に記載の画像処理装置。
The imaging device includes an imaging pixels for outputting the image signal, and a focus detection pixels for outputting the image signal
The image processing apparatus according to any one of claims 1 to 6, wherein the this.
被写体像を光電変換して画像信号を生成し出力する撮像素子であって、撮像光学系の射出瞳の異なる領域を通った光束をそれぞれ独立に受光して得られた像信号を出力可能な撮像素子、を備えた画像処理装置の制御方法であって、
焦点検出手段が、前記撮像素子から出力された前記像信号の位相差に基づいて被写体のデフォーカス量を検出する焦点検出ステップと、
被写体検知手段が、前記撮像装置から出力された前記画像信号に対して被写体検知処理を行い、検知された被写体の領域に対応する前記撮像素子上の領域を特定する被写体検知ステップとを有し
前記焦点検出ステップにおいて前記焦点検出手段は、前記被写体検知ステップで特定された前記被写体域に対応する前記撮像素子上の領域から出力された前記像信号の位相差に基づいて、前記検知された被写体のデフォーカス量を検出する
ことを特徴とする画像処理装置の制御方法
An imaging device that photoelectrically converts a subject image to generate and output an image signal, and that can output image signals obtained by independently receiving light beams that have passed through different areas of the exit pupil of the imaging optical system An image processing apparatus control method comprising an element,
Focus detection means, and the focus detection step of detecting a defocus amount of the object based on the phase difference between the image signal output from the imaging element,
Yes object detection means, performs subject detection processing on the image signal output from the imaging device, and a subject detection step of identifying a detected region on the imaging element corresponding to a region of the photographic material was And
Wherein said focus detection means in focus detection step, based on said phase difference of said image signal output from the region on the imaging element corresponding to the realm of the subject identified by the object detection step is the detection A method for controlling an image processing apparatus, comprising: detecting a defocus amount of a subject .
撮像光学系と、
被写体像を光電変換して画像信号を生成し出力する撮像素子であって、撮像光学系の射出瞳の異なる領域を通った光束をそれぞれ独立に受光して得られた像信号を出力可能な撮像素子と、
前記撮像素子から出力された前記像信号の位相差に基づいて被写体のデフォーカス量を検する焦点検出手段と、
前記撮像素子から出力された前記画像信号に対して被写体検知処理を行い、検知された被写体の領域に対応する前記撮像素子上の領域を特定する被写体検知手段とを有し
前記焦点検出手段は、前記被写体検知手段で特定された前記被写体域に対応する前記撮像素子上の領域から出力された前記像信号の位相差に基づいて、前記検知された被写体のデフォーカス量を検出することを特徴とする撮像装置。
An imaging optical system;
An imaging device that photoelectrically converts a subject image to generate and output an image signal, and that can output image signals obtained by independently receiving light beams that have passed through different areas of the exit pupil of the imaging optical system Elements,
Focus detection means for detect the defocus amount of the object based on the phase difference before Kizo signal outputted from the imaging element,
Wherein performs subject detection processing on the image signal output from the imaging device, and an object detecting means for specifying a region on the imaging element corresponding to the sensed area of the photographic material was,
Said focus detecting means, based on the phase difference of the image signal output from the region on the imaging element corresponding to the realm of the subject identified by the subject detecting means, the defocusing of the sensed object An imaging apparatus characterized by detecting an amount .
JP2009052557A 2009-03-05 2009-03-05 Image processing apparatus, control method therefor, and imaging apparatus Active JP5289105B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009052557A JP5289105B2 (en) 2009-03-05 2009-03-05 Image processing apparatus, control method therefor, and imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009052557A JP5289105B2 (en) 2009-03-05 2009-03-05 Image processing apparatus, control method therefor, and imaging apparatus

Publications (3)

Publication Number Publication Date
JP2010206722A JP2010206722A (en) 2010-09-16
JP2010206722A5 JP2010206722A5 (en) 2012-04-12
JP5289105B2 true JP5289105B2 (en) 2013-09-11

Family

ID=42967708

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009052557A Active JP5289105B2 (en) 2009-03-05 2009-03-05 Image processing apparatus, control method therefor, and imaging apparatus

Country Status (1)

Country Link
JP (1) JP5289105B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6486453B2 (en) * 2013-01-31 2019-03-20 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP6138632B2 (en) * 2013-08-28 2017-05-31 オリンパス株式会社 Imaging apparatus, imaging method, and program
JP6485116B2 (en) 2015-02-27 2019-03-20 富士通株式会社 Focus position detection device, focus position detection method, and computer program for focus position detection
EP4386659A1 (en) 2015-03-10 2024-06-19 Canon Kabushiki Kaisha Image processing method, image processing device, and image pickup apparatus
JP6275174B2 (en) 2015-03-10 2018-02-07 キヤノン株式会社 Image processing method, image processing apparatus, and imaging apparatus
JP6891470B2 (en) * 2015-12-04 2021-06-18 株式会社ニコン Imaging device
JP6672085B2 (en) * 2016-06-17 2020-03-25 キヤノン株式会社 Information processing apparatus, information processing method, and program
JP7771308B1 (en) * 2024-08-30 2025-11-17 アキュートロジック株式会社 Focus adjustment device and control method thereof, imaging device, and computer-readable storage medium
JP7741264B1 (en) * 2024-09-02 2025-09-17 アキュートロジック株式会社 Focus adjustment device control method, focus adjustment device, and imaging device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09181913A (en) * 1995-12-26 1997-07-11 Olympus Optical Co Ltd Camera system
JP4665718B2 (en) * 2005-10-28 2011-04-06 株式会社ニコン Imaging device
JP5066851B2 (en) * 2006-07-05 2012-11-07 株式会社ニコン Imaging device

Also Published As

Publication number Publication date
JP2010206722A (en) 2010-09-16

Similar Documents

Publication Publication Date Title
JP5173954B2 (en) Image processing apparatus and image processing method
JP5289105B2 (en) Image processing apparatus, control method therefor, and imaging apparatus
JP5066851B2 (en) Imaging device
RU2585235C2 (en) Image capture devices
JP5183715B2 (en) Image processing apparatus and image processing method
US20160088215A1 (en) Focus adjustment apparatus and control method therefor
JP5348258B2 (en) Imaging device
JP6974599B2 (en) Image pickup device, distance measurement method, distance measurement program and recording medium
JP5127628B2 (en) Image processing apparatus and image processing method
WO2013171840A1 (en) Imaging apparatus, and imaging apparatus control method
JP2000155257A (en) Method and device for autofocusing
JP2014130231A (en) Imaging apparatus, method for controlling the same, and control program
CN106993110A (en) Camera device and control method thereof
JP5597942B2 (en) Electronic camera
JP4871664B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP5352003B2 (en) Image processing apparatus and image processing method
JP6223502B2 (en) Image processing apparatus, image processing method, program, and storage medium storing the same
JP5793210B2 (en) Imaging device
JP2016018034A (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP6613065B2 (en) FOCUS DETECTION DEVICE, ITS CONTROL METHOD, AND IMAGING DEVICE
JP2017134154A (en) Focus control device, imaging device, and focus control program
JP6378526B2 (en) Imaging apparatus and control method thereof
JP4905225B2 (en) Imaging device
JP6442824B2 (en) Focus detection device
JP2023075146A (en) Imaging apparatus

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120229

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120229

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130327

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130604

R151 Written notification of patent or utility model registration

Ref document number: 5289105

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151