JP5289105B2 - Image processing apparatus, control method therefor, and imaging apparatus - Google Patents
Image processing apparatus, control method therefor, and imaging apparatus Download PDFInfo
- Publication number
- JP5289105B2 JP5289105B2 JP2009052557A JP2009052557A JP5289105B2 JP 5289105 B2 JP5289105 B2 JP 5289105B2 JP 2009052557 A JP2009052557 A JP 2009052557A JP 2009052557 A JP2009052557 A JP 2009052557A JP 5289105 B2 JP5289105 B2 JP 5289105B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- subject
- image processing
- defocus amount
- imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Automatic Focus Adjustment (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
Description
本発明は、画像処理装置およびその制御方法、ならびに撮像装置に関し、特には、撮像した画像に画像処理を施す画像処理装置および画像処理方法、ならびに、撮像装置に関する。 The present invention, images processing device and a control method thereof, and relates to an imaging apparatus, particularly to an image processing apparatus and image processing method performs image processing on the image captured, and relates to an imaging apparatus.
従来より、複数の測距エリアを持つカメラにおいて、撮影した画像からデフォーカス量分布を検出し、このデフォーカス量分布に基づいて画像処理を施すようにした撮像装置が知られている。このような撮像装置では、複数の測距エリアのそれぞれでデフォーカス量を検出し、検出されたデフォーカス量のヒストグラムに基づいてデフォーカス量を複数のデフォーカス量グループに類別する。そして、分類されたそれぞれのグレープのデフォーカス量に応じた画像処理を、撮影した画像に対して施している。 2. Description of the Related Art Conventionally, there has been known an imaging apparatus that detects a defocus amount distribution from a photographed image and performs image processing based on the defocus amount distribution in a camera having a plurality of ranging areas. In such an imaging apparatus, a defocus amount is detected in each of a plurality of ranging areas, and the defocus amount is classified into a plurality of defocus amount groups based on a histogram of the detected defocus amount. Then, image processing corresponding to the defocus amount of each classified grape is performed on the captured image.
例えば特許文献1には、デフォーカス量のヒストグラムに基づいて、出現頻度の低いデフォーカス量を境界として複数のデフォーカス量グループに類別するようにした撮像装置が記載されている。 For example, Patent Document 1 describes an imaging device that is classified into a plurality of defocus amount groups based on a defocus amount with a low appearance frequency based on a defocus amount histogram.
しかしながら、従来の技術では、デフォーカス量のヒストグラムに基づいて分類されたデフォーカス量グループの中から、撮影者が意図した被写体である主被写体のみが属するデフォーカス量グループを必ずしも抽出できるとは限らないという問題点があった。 However, in the conventional technique, it is not always possible to extract a defocus amount group to which only a main subject that is a subject intended by the photographer belongs from among the defocus amount groups classified based on a histogram of defocus amounts. There was no problem.
これは、デフォーカス量グループは、幅を持ったデフォーカス範囲の内か外かでデフォーカス量をグループに分類して形成するため、主被写体が属するグループ内に他の被写体も含まれる可能性が高いからである。主被写体とその他の被写体のデフォーカス量が不明な段階で、両者を分離するデフォーカス範囲を設定することは、一般に困難である。 This is because the defocus amount group is formed by classifying the defocus amount into groups depending on whether it is within or outside the wide defocus range, so other subjects may be included in the group to which the main subject belongs. Because it is expensive. It is generally difficult to set a defocus range that separates the main subject and other subjects at a stage where the defocus amounts are unknown.
このように、従来技術による、デフォーカス量をヒストグラムに基づいて複数のデフォーカス量グループに類別する方法では、主被写体のみに画像処理を施そうとしても、同一デフォーカス量グループに属する他の被写体にまで画像処理を施すことになる。そのため、従来では、主被写体に対して他の被写体よりも相対的に効果が高い画像処理を選択的に施すことが困難であるという問題点があった。 As described above, according to the conventional method of classifying the defocus amount into a plurality of defocus amount groups based on the histogram, even if image processing is performed only on the main subject, another subject belonging to the same defocus amount group is used. The image processing is performed up to. Therefore, conventionally, there has been a problem in that it is difficult to selectively perform image processing that is relatively more effective than the other subjects on the main subject.
したがって、本発明の目的は、被写体毎のデフォーカス量を求めることが可能な画像処理装置およびその制御方法、ならびに、撮像装置を提供することにある。 Accordingly, an object of the present invention, an image processing apparatus and a control method thereof capable of obtaining the defocus amount of each object to be Utsushitai, and to provide an image pickup apparatus.
上述の目的は、被写体像を光電変換して画像信号を生成し出力する撮像素子であって、撮像光学系の射出瞳の異なる領域を通った光束をそれぞれ独立に受光して得られた像信号を出力可能な撮像素子と、撮像素子から出力された像信号の位相差に基づいて被写体のデフォーカス量を検出する焦点検出手段と、撮像素子から出力された画像信号に対して被写体検知処理を行い、検知された被写体の領域に対応する撮像素子上の領域を特定する被写体検知手段とを有し、焦点検出手段は、被写体検知手段で特定された被写体の領域に対応する撮像素子上の領域から出力された像信号の位相差に基づいて、検知された被写体のデフォーカス量を検出することを特徴とする画像処理装置によって達成される。 The above-described object is an image sensor that photoelectrically converts a subject image to generate and output an image signal, and an image signal obtained by independently receiving light beams that have passed through different areas of the exit pupil of the imaging optical system. capable of outputting the image pickup device and a focus detection means for detecting the defocus amount of the object based on the phase difference of the output image signal from the imaging device, the subject detection processing on the image signal output from the imaging device performed, and a subject detecting means for identifying a detected region on the imaging element corresponding to a region of the photographic material were the focus detection means, the imaging element corresponding to the realm of the subject identified by the object detecting means based on the phase difference of the image signals output from the area of the upper, Ru is achieved by an image processing apparatus characterized by detecting the defocus amount of the detected object.
本発明によれば、被写体毎のデフォーカス量を求めることができるため、例えば撮影者が意図した被写体の領域に対して選択的に画像処理を施すことができる。 According to the present invention , since the defocus amount for each subject can be obtained, for example , image processing can be selectively performed on the region of the subject intended by the photographer.
以下、本発明の実施形態を、図面を参照しながら説明する。図1は、本発明を適用可能な撮像装置100の一例の構成を示す。撮像素子107は、CCDやCMOSセンサからなり、撮影レンズ101を通過した被写体光学像を結像させ、結像された被写体光学像の光量に応じて電荷に変換して得られた撮像信号を出力する。また、撮像素子107は、画像信号を出力する撮像用画素とは別に、後述する被写体像信号を出力する焦点検出用画素を備えている。撮像素子107から出力される撮像信号は、これら画像信号と被写体像信号とを含む。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 shows an exemplary configuration of an imaging apparatus 100 to which the present invention can be applied. The
半透過部を有する主ミラー102は、撮影時には撮影光束外へ退避し、焦点検出時に撮影光路内に斜設される。図1では、主ミラー102は、撮影光束中に挿入された状態(ミラーダウン)が示されている。また、主ミラー102は、撮影光路内に斜設された状態で、撮影レンズ101を通過した光束の一部をピント板103、ペンタプリズム104および接眼レンズ105から構成されるファインダ光学系に導く。
The
サブミラー106は、主ミラー102の動作に同期して主ミラー102に対して折り畳み、展開可能とされている。主ミラー102の半透過部を通過した光束の一部は、サブミラー106によって下方へ反射され、位相差方式の焦点検出部108に入射し、撮影レンズ101の合焦状態が検出される。
The
一方、コントラスト方式のAF測距は、常時、主ミラー102を撮影光束外へ退避させる。そして、この動作に同期してサブミラー106を主ミラー102に対して折り畳んだ状態(ミラーアップ)で、撮影レンズ101を通過した被写体光学像を撮像素子107に結像させ、撮影レンズ101の合焦状態が検出される。
On the other hand, in contrast-type AF distance measurement, the
システムコントローラ112は、例えばCPU、ROM、RAMなどを有し、CPUは、ROMに予め格納されたプログラムに従い、RAMをワークメモリとして用いて、この撮像装置100の各部の動作を適宜、制御する。
The
レンズ駆動部113は、システムコントローラ112に接続され、撮影レンズ101と通信を行う通信部と、焦点調節を行うために撮影レンズ101を駆動するレンズ駆動機構と、レンズ駆動機構を制御する駆動回路とを備える。ミラー駆動部114は、システムコントローラ112に接続され、主ミラー102を撮影光束外へ駆動する。撮像素子駆動部115は、システムコントローラ112に接続され、撮像素子107を駆動する。
The
アナログ信号処理部109は、撮像素子107から出力された撮像信号に対してゲイン調整、ノイズ除去などの信号処理を施し、画像信号として出力する。A/D変換器110は、アナログ信号処理部109から出力されたアナログ信号による画像信号を、デジタル信号による画像信号(以下、画像データ)に変換する。
The analog
デジタル信号処理部111は、システムコントローラ112に接続され、A/D変換器110から出力された画像データに対して、シェーディング補正やガンマ補正などの画像処理を施す。デジタル信号処理部111は、さらに、撮像素子107の焦点検出用画素から出力される被写体像信号に基づく画像データにより撮影レンズ101の合焦状態を検出する検出部を備えている。
The digital
バッファメモリ116は、デジタル信号処理部111に接続され、撮像素子107で撮像された複数フレーム分の画像データを記憶することができる。例えば、A/D変換器110でA/D変換された画像データは、一旦このバッファメモリ116に記憶される。デジタル信号処理部111は、バッファメモリ116に記憶された画像データを読み込んで上述した各処理を行い、処理後の画像データは再びバッファメモリ116に記憶される。
The
記録手段としての記録再生信号処理部117は、デジタル信号処理部111に接続され、外部記憶媒体118に対する画像データの記録および再生を制御する。デジタル信号処理部111で各種処理が施された画像データは、一旦バッファメモリ116に記憶された後に記録再生信号処理部117に供給され、外部記憶媒体118に記憶される。記録媒体としての外部記憶媒体118は、例えば脱着可能な不揮発性メモリを用いることができる。
A recording / playback signal processing unit 117 serving as a recording unit is connected to the digital
記録再生信号処理部117は、画像データに対して圧縮符号化を施すことができると共に、圧縮符号化された圧縮画像データの伸長処理を行うことができる。圧縮符号化方式としては、例えばJPEG方式を適用することができる。例えば記録再生信号処理部117は、画像データに対して圧縮符号化を施して外部記憶媒体118に記憶する。また、記録再生信号処理部117は、外部記憶媒体118から読み出した圧縮画像データを伸長する。
The recording / playback signal processing unit 117 can perform compression coding on the image data and can perform decompression processing on the compressed image data that has been compression-coded. As a compression encoding method, for example, a JPEG method can be applied. For example, the recording / playback signal processing unit 117 performs compression coding on the image data and stores the image data in the
表示部120は、LCDなどの表示デバイスと、当該表示デバイスを駆動する駆動回路を有し、撮像された画像や、記憶媒体118に記憶されている画像データを再生表示する。表示部120に画像を表示する場合には、バッファメモリ116に記憶された画像データを読み出し、D/A変換器119により画像データであるデジタル画像信号をアナログ画像信号に変換する。そして、そのアナログ画像信号を用いて表示部120に画像を表示する。
The
撮像素子107で撮像された画像は、2種類の形態で表示部120に表示される。第1の形態は、レリーズ操作が行われないときの表示形態であり、撮像素子107で繰り返し撮像される画像を逐次更新表示する、スルー画と呼ばれる表示形態である。第2の形態は、カメラのレリーズ操作後に、撮像素子107で撮像された画像を所定時間表示するフリーズ画と呼ばれる表示形態である。
Images captured by the
被写体検知部121は、デジタル信号処理部111に接続され、デジタル信号処理部111で各種処理が施された画像データに被写体が存在するか否かを検知する。被写体検知処理は、例えば色彩情報、彩度情報、コントラスト情報および輪郭情報のうち少なくとも1つを画像データから検出し、検出された情報に基づき被写体の領域を検知する。
The
なお、顔検知により人物の顔を検知し、検知された顔に基づき被写体検知を行ってもよい。例えば、顔検知により検知された顔の輪郭を取得し、この輪郭に対して連続的と見なせる輪郭をさらに検知し、被写体全体の輪郭とすることが考えられる。これに限らず、顔検知により検知された顔までの距離を計測し、計測された距離に対して所定範囲内で合焦した領域を被写体領域とすることも考えられる。 Note that a human face may be detected by face detection, and subject detection may be performed based on the detected face. For example, it is conceivable that the contour of the face detected by the face detection is acquired, the contour that can be considered continuous with respect to this contour is further detected, and the contour of the entire subject is obtained. Not limited to this, it is conceivable to measure the distance to the face detected by the face detection, and to set a region focused on the measured distance within a predetermined range as the subject region.
顔検知については、既に多くの手法が提案されて、実用化もされている。例えば、特開平8−63597号公報では、人の顔の形状に相当する顔候補領域を決定し、この顔候補領域の特徴量から顔領域を決定するような手法が提案されている。また、画像から人の顔の輪郭を抽出することにより顔候補領域を検出する手法や、顔の様々な形状をした複数のテンプレートとの相関値を計算し、この相関値に基づいて顔候補領域とする手法が提案されている。 Many methods for face detection have already been proposed and put into practical use. For example, Japanese Patent Laid-Open No. 8-63597 proposes a method of determining a face candidate area corresponding to the shape of a human face and determining the face area from the feature amount of the face candidate area. In addition, a method for detecting a face candidate area by extracting the outline of a human face from an image and a correlation value with a plurality of templates having various shapes of the face are calculated, and the face candidate area is calculated based on the correlation value. A method has been proposed.
操作部122は、システムコントローラ112に接続され、撮像装置100に対するユーザ操作を受け付ける。操作部122は、例えばカメラの電源をオン/オフするための電源スイッチ、レリーズボタン、人物撮影モードなどの撮影モードを選択するための設定ボタンなど、撮像装置100を操作するための種々の操作子が設けられる。ユーザによりこれらの操作子が操作されると、その操作に応じた信号がシステムコントローラ112に入力される。なお、レリーズボタンには、撮影者により操作されるレリーズボタンの第1ストローク操作(半押し操作)によりONする第1のスイッチ(SW)と、レリーズボタンの第2ストローク操作(全押し操作)によりONする第2のSWとが接続されている。
The
次に、図2および図3を用いて、撮像用画素と焦点検出用画素を備えた撮像素子107の一例の構造について説明する。
Next, the structure of an example of the
図2は、撮像用画素に係る、撮像素子107を含む撮像光学系について概略的に説明する。図2(a)に示す2行×2列の4画素のうち、対角2画素にG(緑色)の分光感度を有する画素を配置し、他の2画素にR(赤色)とB(青色)の分光感度を有する画素を各1個配置した、ベイヤー配列が採用されている。そして、このベイヤー配列の間に、後述する構造の焦点検出用画素が所定の規則にて分散配置される。
FIG. 2 schematically illustrates an imaging optical system including the
図2(b)は、図2(a)におけるA−A断面図を示す。フォトダイオードPDは、CMOSイメージセンサの光電変換素子であって、それぞれ画素を構成する。コンタクトレイヤCLは、CMOSイメージセンサ内において各種信号を伝達する信号線を形成する配線層である。各画素に対して、赤色のカラーフィルタCFR、緑色のカラーフィルタCFGおよび青色のカラーフィルタCFBが、図2(a)の如くベイヤ配列で配置される。各画素の最前面に対して、オンチップマイクロレンズMLが配置される。 FIG.2 (b) shows the AA sectional drawing in Fig.2 (a). The photodiode PD is a photoelectric conversion element of a CMOS image sensor and constitutes a pixel. The contact layer CL is a wiring layer that forms signal lines for transmitting various signals in the CMOS image sensor. For each pixel, a red color filter CF R , a green color filter CF G and a blue color filter CF B are arranged in a Bayer array as shown in FIG. On-chip microlenses ML are arranged on the forefront of each pixel.
被写体からの光が光学撮影レンズTL(Taking Lens)を介してオンチップマイクロレンズMLに入射されて集光される。集光された光は、例えばカラーフィルタCFRにより赤色の波長成分を抽出されてフォトダイオードPDに入射される。フォトダイオードPDは、入射された光を光電変換により電荷に変換する。 Light from the subject is incident on the on-chip microlens ML via an optical photographing lens TL (Taking Lens) and is condensed. Condensed light is incident on the photodiode PD, for example, the extracted red wavelength components by the color filter CF R. The photodiode PD converts incident light into electric charge by photoelectric conversion.
ここで、撮像用画素のオンチップマイクロレンズMLとフォトダイオードPDは、光学撮影レンズTLを通過した光束を可能な限り有効に取り込むように構成される。換言すると、光学撮影レンズTLの射出瞳EP(Exit Pupil)とフォトダイオードPDは、オンチップマイクロレンズMLにより共役関係にあり、且つ、フォトダイオードPDの有効面積は、大面積に設計される。 Here, the on-chip microlens ML and the photodiode PD of the imaging pixel are configured to capture the light beam that has passed through the optical photographing lens TL as effectively as possible. In other words, the exit pupil EP (Exit Pupil) of the optical photographing lens TL and the photodiode PD are conjugated with each other by the on-chip microlens ML, and the effective area of the photodiode PD is designed to be large.
なお、カラーフィルタCFR、CFGおよびCFBに対応する画素(以下、それぞれR画素、G画素およびB画素と呼ぶ)は、同一の構造となっている。したがって、撮像用のR、GおよびBの各画素に対応した射出瞳EPは大径となり、被写体からの光をフォトダイオードPDに効率よく取り込むことができ、撮像素子から出力される撮像信号のS/Nを向上させている。 The pixels corresponding to the color filters CF R , CF G, and CF B (hereinafter referred to as R pixel, G pixel, and B pixel, respectively) have the same structure. Accordingly, the exit pupil EP corresponding to each of the R, G, and B pixels for imaging has a large diameter, and light from the subject can be efficiently taken into the photodiode PD, and S of the imaging signal output from the imaging element can be obtained. / N is improved.
このベイヤ配列の間に、瞳分割位相差方式による焦点検出を行うための焦点検出用画素を配置する。より具体的には、ベイヤ配列を構成する2行×2列の画素のうち、G画素は撮像用画素として残し、R画素とB画素とを焦点検出用画素に置き換える。 Focus detection pixels for performing focus detection by the pupil division phase difference method are arranged between the Bayer arrays. More specifically, among the 2 rows × 2 columns of pixels constituting the Bayer array, the G pixel is left as an imaging pixel, and the R pixel and the B pixel are replaced with focus detection pixels.
記録や表示のための画像信号を得る場合、G画素で輝度情報の主成分を取得する。人間の画像認識特性は、輝度情報に敏感であるため、このG画素が欠けると画質劣化が認知されやすい。一方、R画素またはB画素は、主に色情報(色差情報)を取得する。ここで、人間の画像認識特性は、輝度情報に比べて色情報には鈍感である。そのため、色情報を取得するR画素やB画素は、多少の欠損が生じても画質劣化が認知され難い。 When obtaining an image signal for recording or display, the main component of luminance information is acquired by G pixels. Since human image recognition characteristics are sensitive to luminance information, if this G pixel is missing, image quality degradation is likely to be perceived. On the other hand, the R pixel or the B pixel mainly acquires color information (color difference information). Here, human image recognition characteristics are less sensitive to color information than luminance information. For this reason, it is difficult for the R pixel and B pixel for obtaining the color information to recognize the image quality deterioration even if some loss occurs.
図3を用いて、焦点検出用画素に係る、撮像素子107を含む撮像光学系について概略的に説明する。図3(a)は、焦点検出用画素を含む2行×2列の画素の一例の平面図を示す。また、図3(b)は、撮像光学系の、図3(a)におけるA−A面による一例の断面図を示す。図3(b)において、オンチップマイクロレンズMLおよびフォトダイオードPDは、上述の図2(b)に示した構造と同一である。
An image pickup optical system including the
図3(a)において、画素SHAおよび画素SHBが焦点検出を行うための画素である。以下、画素SHAおよび画素SHBをまとめて焦点検出用画素と呼ぶ。また、図3(a)中、画素SHAおよび画素SHBにおける塗り潰し部分は、配線層CLの開口部である。すなわち、焦点検出用画素に照射された光は、この配線層CLの開口部を通って、フォトダイオードPDに入射される。なお、焦点検出用画素による信号は、画像生成には用いないため、画素SHAおよび画素SHBに対し、透明膜によるフィルタCFWが配置される。 In FIG. 3A, a pixel S HA and a pixel S HB are pixels for performing focus detection. Hereinafter, the pixel S HA and the pixel S HB are collectively referred to as a focus detection pixel. In FIG. 3A, the filled portions in the pixels S HA and S HB are openings of the wiring layer CL. That is, the light irradiated to the focus detection pixels is incident on the photodiode PD through the opening of the wiring layer CL. The signal due to the focus detection pixels, is not used for image generation, to the pixel S HA and the pixel S HB, filter CF W by the transparent film is arranged.
図3の例では、画素SHAに対応する開口部OPHA、ならびに、画素SHBに対応する開口部OPHBは、オンチップマイクロレンズMLの中心線に対して一方向に偏倚して設けられる。これにより、撮像素子による瞳分割が行われる。 In the example of FIG. 3, the opening OP HA corresponding to the pixel S HA, and, the opening OP HB corresponding to the pixel S HB, is provided offset in one direction from the center line of the on-chip microlens ML . Thereby, pupil division by an image sensor is performed.
具体的には、画素SHAに対応する開口部OPHAは、図3上で右側に偏倚しているため、光学撮影レンズTLの左側の射出瞳EPHAを通過した光束を受光する。同様に、画素SHBに対応する開口部OPHBは、図3上で左側に偏倚しているため、光学撮影レンズTLの右側の射出瞳EPHBを通過した光束を受光する。 Specifically, since the opening OP HA corresponding to the pixel S HA is biased to the right side in FIG. 3, it receives the light beam that has passed through the left exit pupil EP HA of the optical photographing lens TL. Similarly, since the opening OP HB corresponding to the pixel S HB is biased to the left in FIG. 3, it receives the light beam that has passed through the right exit pupil EP HB of the optical photographing lens TL.
画素SHAを水平方向に規則的に配列し、これらの画素群で取得した被写体像を像Aとする。また、画素SHBも同様にして水平方向に規則的に配列し、これらの画素群で取得した被写体像を像Bとする。像Aと像Bとの相対位置を検出することで、被写体像のピントずれ量(デフォーカス量)が検出できる。 Pixels SHA are regularly arranged in the horizontal direction, and a subject image acquired by these pixel groups is defined as an image A. Similarly, the pixels SHB are regularly arranged in the horizontal direction, and a subject image acquired by these pixel groups is defined as an image B. By detecting the relative position between the image A and the image B, the amount of defocus (defocus amount) of the subject image can be detected.
図4は、撮像素子107上の撮像用画素と焦点検出用画素の一例の配置を示す。例えば、10行×10列=100画素の正方形領域を1つのブロックBLKと定義する。画像信号による画面内をこのブロックBLK単位に分割する。このブロックBLKを焦点検出領域として、焦点検出領域毎に焦点検出用画素を設ける。
FIG. 4 shows an exemplary arrangement of imaging pixels and focus detection pixels on the
左上のブロックBLKh(1,1)において、左下隅のR画素およびB画素を、水平方向に瞳分割を行なう1組の焦点検出用画素SHAおよびSHBでそれぞれ置き換える。ブロックBLKh(1,1)の右隣りのブロックBLKv(1,2)では、左下隅のR画素およびB画素を、垂直方向に瞳分割を行なう1組の焦点検出用画素SVCおよびSVDでそれぞれ置き換える。なお、焦点検出用画素SVCおよびSVDは、焦点検出用画素SHAおよびSHBとそれぞれ同様の構造を有する。ブロックBLKh(1,1)の下に隣接したブロックBLKv(2,1)の画素配列は、ブロックBLKv(1,2)と同一とする。また、ブロックBLKv(2,1)の右隣りのブロックBLKh(2,2)の画素配列は、ブロックBLKh(1,1)と同一とする。 In the upper left block BLKh (1, 1), the R pixel and the B pixel at the lower left corner are respectively replaced with a set of focus detection pixels S HA and S HB that perform pupil division in the horizontal direction. In the block BLKv (1, 2) on the right side of the block BLKh (1, 1), a pair of focus detection pixels S VC and S VD that perform pupil division in the vertical direction on the R pixel and B pixel in the lower left corner. Replace each one. The focus detection pixels S VC and S VD have the same structure as the focus detection pixels S HA and S HB , respectively. The pixel arrangement of the block BLKv (2, 1) adjacent below the block BLKh (1, 1) is the same as that of the block BLKv (1, 2). The pixel arrangement of the block BLKh (2, 2) on the right side of the block BLKv (2, 1) is the same as that of the block BLKh (1, 1).
この配置規則を一般化すると、ブロックBLK(i,j)において、(i+j)が偶数であれば水平瞳分割用の焦点検出用画素SHAおよびSHBを配置しする。一方、(i+j)が奇数であれば垂直瞳分割用の焦点検出用画素SVCおよびSVDを配置する。このように、焦点検出用画素が撮像信号による画面全体にわたり配置される。 When this arrangement rule is generalized, in block BLK (i, j), if (i + j) is an even number, focus detection pixels S HA and S HB for horizontal pupil division are arranged. On the other hand, if (i + j) is an odd number, focus detection pixels S VC and S VD for vertical pupil division are arranged. Thus, the focus detection pixels are arranged over the entire screen based on the imaging signal.
なお、ブロックBLKh(i,j)は、水平瞳分割用の焦点検出用画素SHAおよびSHBが配置されるブロックBLKを示す。また、ブロックBLKv(i,j)は、垂直瞳分割用の焦点検出用画素SVCおよびSVDが配置されるブロックBLKを示すものとする。 The block BLKh (i, j) indicates the block BLK in which the focus detection pixels S HA and S HB for horizontal pupil division are arranged. The block BLKv (i, j) represents the block BLK in which the focus detection pixels S VC and S VD for vertical pupil division are arranged.
ここで、上記の撮像素子107の焦点検出用画素から取得した被写体像であるA像とB像から焦点ずれ量を検出する信号処理方法について説明する。焦点検出用画素を構成する画素数を画素数Lとし、画素番号i(i=0,…,L)としたときのA像の信号を信号A(i)、B像の信号を信号B(i)とする。このとき、下記の式(1)または式(2)を、k1≦k≦k2について演算する。
なお、値Mは(M=L−|k|)で表される演算画素数であり、値kは、相対変移量と呼ばれ、値k1および値k2は、一般的には、−L/2、L/2にとらえることが多い。また、max{a,b}なる演算子は、値aおよび値bから大なるものを抽出することを表し、min{a,b}なる演算子、値aおよび値bから小なるものを抽出することを表す。したがって、上述の式(1)および式(2)におけるX1(k)、X2(k)、Y1(k)およびY2(k)は広義の相関量と考えることができる。 The value M is the number of operation pixels represented by (M = L− | k |), the value k is called a relative shift amount, and the value k 1 and the value k 2 are generally − In many cases, it is considered as L / 2 or L / 2. Further, the operator max {a, b} indicates that the larger one is extracted from the value a and the value b, and the operator smaller than the min {a, b}, the value a and the value b is extracted. Represents what to do. Therefore, X 1 (k), X 2 (k), Y 1 (k), and Y 2 (k) in the above formulas (1) and (2) can be considered as broad correlation amounts.
さらに、上述の式(1)および式(2)を詳細に見ると、値X1(k)および値Y1(k)は、実際には、値(k−1)の変位における相関量を、値X2(k)および値Y2(k)は、値(k+1)の変位における相関量をそれぞれ表している。故に、相関量X1(k)およびX2(k)の差である評価量X(k)は、相対変位量kにおける被写体像信号A(i)およびB(i)の相関量の変化量を意味する。 Further, when the above formulas (1) and (2) are examined in detail, the value X 1 (k) and the value Y 1 (k) actually indicate the correlation amount in the displacement of the value (k−1). , Value X 2 (k) and value Y 2 (k) represent the correlation amounts in the displacement of value (k + 1), respectively. Therefore, the evaluation amount X (k), which is the difference between the correlation amounts X 1 (k) and X 2 (k), is the amount of change in the correlation amount of the subject image signals A (i) and B (i) at the relative displacement amount k. Means.
相関量X1(k)およびX2(k)は、上述の定義より、A像およびB像の相関が最も高いときに最小となる。よって、その変化量である評価量X(k)は、相関が最も高いときに値が0で、かつ傾きは負となるはずである。ところが、評価量X(k)は、離散データであるから、実際には下記の式(3)のようになる。
X(kp)≧0,X(kp+1)<0 …(3)
The correlation amounts X 1 (k) and X 2 (k) are minimum when the correlation between the A image and the B image is the highest from the above definition. Therefore, the evaluation amount X (k) that is the amount of change should have a value of 0 and a slope of negative when the correlation is highest. However, since the evaluation amount X (k) is discrete data, the following equation (3) is actually obtained.
X (kp) ≧ 0, X (kp + 1) <0 (3)
さらに、値{X(kp)−X(kp+1)}が最大になる相対変位の区間〔kp,kp+1〕に相関量のピークが存在すると考えて、下記の式(4)による補間演算を行い、画素単位以下の焦点ズレ量PRを検出することができる。
PR=kp+X(kp)/{X(kp)−X(kp+1)} …(4)
Further, assuming that there is a peak of the correlation amount in the relative displacement interval [kp, kp + 1] where the value {X (kp) −X (kp + 1)} is maximum, an interpolation calculation is performed according to the following equation (4): It is possible to detect a focus shift amount PR equal to or less than a pixel unit.
PR = kp + X (kp) / {X (kp) -X (kp + 1)} (4)
一方、相関量Y1(k)およびY2(k)は、上述の定義より、A像およびB像の相関が最も高いときに、相関量X1(k)およびX2(k)とは逆に最大となる。よって、その変化量である評価量Y(k)は、A像およびB像の相関が最も高いときに値が0で、かつ傾きは正となるはずである。評価量Y(k)も上述の評価量X(k)と同様に離散データであるから、実際には、下記の式(5)のようになる。
Y(kp)≦0,Y(kp+1)>0 …(5)
On the other hand, the correlation amounts Y 1 (k) and Y 2 (k) are opposite to the correlation amounts X 1 (k) and X 2 (k) when the correlation between the A image and the B image is highest from the above definition. To the maximum. Therefore, the evaluation amount Y (k) that is the amount of change should have a value of 0 and a positive slope when the correlation between the A and B images is the highest. Since the evaluation amount Y (k) is also discrete data like the above-described evaluation amount X (k), the following equation (5) is actually obtained.
Y (kp) ≦ 0, Y (kp + 1)> 0 (5)
さらに、値{Y(kp)−Y(kp+1)}が最大のときに、下記の式(6)による補間演算を行い、画素単位以下の焦点ずれ量PRを検出することできる。
PR=kp+|Y(kp)/{Y(kp)−Y(kp+1)}| …(6)
Further, when the value {Y (kp) −Y (kp + 1)} is the maximum, an interpolation calculation according to the following equation (6) can be performed to detect a defocus amount PR equal to or less than a pixel unit.
PR = kp + | Y (kp) / {Y (kp) −Y (kp + 1)} | (6)
上述の式(4)、あるいは、式(6)で求めた焦点ずれ量PRより、被写体像面の予定結像面に対するデフォーカス量DEFを、下記の式(7)で求めることができる。なお、値は、一対の測距瞳を通過する光束の重心の開き角の大きさによって決まる変換係数である。
DEF=K×PR …(7)
The defocus amount DEF of the subject image plane with respect to the planned image formation plane can be obtained from the following equation (7) from the defocus amount PR obtained in the above equation (4) or equation (6). The value is a conversion coefficient determined by the size of the opening angle of the center of gravity of the light beam passing through the pair of distance measuring pupils.
DEF = K × PR (7)
<実施形態>
次に、本発明の実施形態について、図5のフローチャートを用いて説明する。図5は、本発明の実施形態に適用可能な一例の撮像処理を示すフローチャートである。本実施形態による撮像処理は、撮像画像から被写体の領域を検知し、被写体の領域毎にデフォーカス量DEFを検出する。こうしてデフォーカス量検知を行いことで、被写体に注目したデフォーカス量DEFの分布を得る。この得られたデフォーカス量分布に基づき、撮影者が意図した被写体の領域(被写体領域)のみに画像処理を施す。なお、以下では、画像処理として、画像の輪郭などを暈かすボケ付加処理を例に挙げて説明する。
<Embodiment>
Next, an embodiment of the present invention will be described using the flowchart of FIG. FIG. 5 is a flowchart showing an example of imaging processing applicable to the embodiment of the present invention. In the imaging processing according to the present embodiment, a subject area is detected from a captured image, and a defocus amount DEF is detected for each subject area. By performing defocus amount detection in this way, a distribution of the defocus amount DEF focused on the subject is obtained. Based on the obtained defocus amount distribution, image processing is performed only on a subject region (subject region) intended by the photographer. In the following description, as an image process, a blur addition process for blurring the outline of an image will be described as an example.
最初のステップS101では、システムコントローラ112は、操作部122に設けられたレリーズスイッチにおける第1のSWが操作されるのを待機する。第1のSWが操作されたら、処理はステップS102に移行される。
In first step S <b> 101, the
ステップS102では、被写体に対して焦点を合わせるよう撮影レンズ101の駆動制御を行うAF処理を実行する。AFの測距方式については、焦点検出部108を用いる位相差方式であってもよい。また、撮影レンズ101によって結像される被写体像を撮像素子107で撮像し、フォーカスエリア内の撮像信号を用いて合焦位置を決定するコントラスト方式であってもよい。さらに、撮像素子107に配置された焦点検出用画素を用いる位相差方式であってもよい。
In step S102, an AF process for controlling the driving of the photographing
ステップS102のAF処理により被写体に焦点が合わせられると、処理がステップS103に移行される。ステップS103では、システムコントローラ112は、操作部122に設けられたレリーズスイッチにおける第2のSWが操作されるのを待機する。第2のSWが操作されたら、処理はステップS104に移行される。
When the subject is focused by the AF process in step S102, the process proceeds to step S103. In step S <b> 103, the
ステップS104では、システムコントローラ112は、ミラー駆動部114を制御して主ミラー102を撮影光束外へ駆動させ、撮像素子駆動部115を制御して撮像素子107を駆動させる。被写体光学像が撮像レンズを通過して撮像素子107に結像され、撮像素子107から撮像信号が出力される。この撮像信号は、撮像用画素による画像信号と、焦点検出用画素による被写体像信号とを含む。撮像素子107から出力された撮像信号がアナログ信号処理部109およびA/D変換器110を介して画像データとされ、デジタル信号処理部111に供給される。デジタル信号処理部111は、この画像データから、撮像素子107の撮像用画素による画像データと、焦点検出用画素による画像データとをそれぞれ取得し、一旦バッファメモリ116に記憶させる。
In step S <b> 104, the
次のステップS105では、デジタル信号処理部111により、ステップS104で取得した撮像用画素による画像データと、焦点検出用画素による画像データとに基づき、撮像用画素による画像データに対して画像処理が施される。詳細は後述するが、本実施形態では、この画像処理は、ボケ付加処理であるものとする。
In the next step S105, the digital
ステップS105の処理が終了すると、処理はステップS106に移行される。ステップS106では、ステップS105で画像処理を施した画像データを、例えば外部記憶媒体118に記憶させる。
When the process of step S105 ends, the process proceeds to step S106. In step S106, the image data subjected to the image processing in step S105 is stored in, for example, the
次に、図6〜図8を用いて、上述のステップS105による画像処理について説明する。図6は、本実施形態による画像処理を示す一例のフローチャートを示す。また、図7は、撮像により得られた画像の例を示し、図8は、図7の画像における測距エリアの一例を示す。なお、図7および図8において、桝目は、図4を用いて説明した、1対の焦点検出用画素が配置されるブロックBLK(i,j)を示す。 Next, the image processing in step S105 described above will be described with reference to FIGS. FIG. 6 is a flowchart illustrating an example of image processing according to the present embodiment. FIG. 7 shows an example of an image obtained by imaging, and FIG. 8 shows an example of a distance measurement area in the image of FIG. 7 and 8, the squares indicate the blocks BLK (i, j) where the pair of focus detection pixels described with reference to FIG. 4 are arranged.
先ず、ステップS201で、デジタル信号処理部111は、バッファメモリ116に記憶した画像データから、撮像用画素の位置の画像データを読み出すと共に、焦点検出用画素の位置の画像データを読み出す。なお、以下では、撮像用画素の位置の画像データを撮像画像データと呼び、焦点検出用画素の位置の画像データを被写体像画像データと呼ぶ。これら撮像画像データおよび被写体像画像データは、被写体検知部121に供給される。
First, in step S <b> 201, the digital
次のステップS202で、被写体検知手段としての被写体検知部121により、例えば撮像画像データから検出される色彩情報、彩度情報、コントラスト情報および輪郭情報などに基づき被写体の領域が検知される。図7の例では、被写体検知部121は、撮像画像データから被写体a〜dを検知し、検知された被写体の撮像画像データにおける領域を特定する。ここで、被写体a、cおよびdが人物であり、被写体bがボールであるものとする。また、被写体aが、主たる被写体とされる主被写体であるものとする。
In the next step S202, a subject region is detected by the
次のステップS203で、デジタル信号処理部111によりステップS202で被写体を検知できたかどうかが判断される。若し、被写体を検知できなかったと判断されたら、図6のフローチャートによる一連の処理が終了され、処理が図5のフローチャートのステップS106に移行される。
In the next step S203, the digital
一方、ステップS203において被写体を検知できたと判断されたら、処理はステップS204に移行される。ステップS204では、デフォーカス量検出手段としてのデジタル信号処理部111により、ステップS202で検知した被写体の領域のそれぞれについて、当該領域に対応する撮像素子107のブロックBLK毎に、デフォーカス量が検出される。そして、代表値算出手段としてのデジタル信号処理部111により、当該被写体の領域のデフォーカス量を代表する代表値である代表デフォーカス量が算出される。
On the other hand, if it is determined in step S203 that the subject has been detected, the process proceeds to step S204. In step S204, the defocus amount is detected for each block BLK of the
図7および図8の例では、図7に例示される、例えば被写体aの領域を含むブロックBLKは、図8に例示される測距エリアAを形成する。同様に、図7の被写体b〜dの領域を含むブロックBLKは、それぞれ図8に例示される測距エリアC〜Dを形成する。 In the example of FIGS. 7 and 8, the block BLK including, for example, the region of the subject a illustrated in FIG. 7 forms a distance measurement area A illustrated in FIG. Similarly, the blocks BLK including the areas of the subjects b to d in FIG. 7 form distance measuring areas C to D illustrated in FIG. 8 respectively.
なお、検知した1の被写体の領域内で異なる複数のデフォーカス量が検出された場合に、当該1の被写体の領域に対して1のデフォーカス量(代表デフォーカス量)を対応付ける。例えば、1の被写体の領域から検出された複数のデフォーカス量の平均値を代表デフォーカス量として、当該1の被写体の領域に対応付ける。 When a plurality of different defocus amounts are detected in the detected one subject region, one defocus amount (representative defocus amount) is associated with the one subject region. For example, an average value of a plurality of defocus amounts detected from one subject region is used as a representative defocus amount, and is associated with the one subject region.
これに限らず、1の被写体の領域に含まれる複数のブロックBLKによる複数のデフォーカス量のうち、最も手前側で検出されたデフォーカス量を、代表デフォーカス量として選択することもできる。また、1の被写体の領域に含まれる複数のブロックBLKによるデフォーカス量のうち、像画像のS/Nが最も高いデフォーカス量を、代表デフォーカス量として用いてもよい。 However, the present invention is not limited to this, and the defocus amount detected at the foremost side among the plurality of defocus amounts by the plurality of blocks BLK included in one subject region can be selected as the representative defocus amount. Further, the defocus amount having the highest S / N of the image image among the defocus amounts by the plurality of blocks BLK included in one subject area may be used as the representative defocus amount.
図7に示す撮影した画像例において、被写体の領域a〜dに対応する図8に示す測距エリアA〜Dで、それぞれ代表デフォーカス量を検出する。これにより、撮像された画像データによる画面内におけるデフォーカス量の分布を、被写体単位で検出することができる。 In the photographed image example shown in FIG. 7, the representative defocus amounts are detected in the ranging areas A to D shown in FIG. 8 corresponding to the areas a to d of the subject, respectively. Thereby, the distribution of the defocus amount in the screen based on the captured image data can be detected in units of subjects.
ステップS204で測距エリアそれぞれの代表デフォーカス量が検出されると、処理はステップS205に移行される。ステップS205では、画像処理手段としてのデジタル信号処理部111により、被写体検知部121で検知した被写体の領域毎に、当該領域に対応する代表デフォーカス量と、所定に設定される画像処理制御パラメータに基づき画像処理が施される。すなわち、デジタル信号処理部111では、被写体領域に対して代表デフォーカス量に応じた強度で、被写体毎に共通した画像処理が適用される。また、この画像処理の際に、画像処理制御パラメータが処理強度に加味される。画像処理が完了すると、図6のフローチャートによる一連の処理が終了され、処理が図5のフローチャートのステップS106に移行される。
When the representative defocus amount of each distance measurement area is detected in step S204, the process proceeds to step S205. In step S205, for each region of the subject detected by the
上述したステップS205における画像処理について、より詳細に説明する。本実施形態では、画像処理の例として、画像に対してボケを付加するボケ付加処理を説明する。また、以下の説明において、被写体検知部121で検知された被写体の領域を部分画像Pnとして表す。ただし、添字nは、被写体の領域を表す変数であり、図7の例では、被写体a〜dに対して、部分画像Pnが部分画像Pa、Pb、PcおよびPdとなる。
The image processing in step S205 described above will be described in more detail. In this embodiment, as an example of image processing, a blur addition process for adding blur to an image will be described. In the following description, the area of the subject detected by the
部分画像Pn(x,y)のそれぞれに対して、下記の式(8)に示されるように、正規分布関数N(i,j)を畳み込み演算(フィルタリング演算)し、処理済み部分画像On(x,y)をそれぞれ生成する。すなわち被写体領域毎にこの畳み込み演算が行われる。なお、式(8)において、演算子「*」は、2次元の畳み込み演算を表す。
On(x,y)=Pn(x,y)*N(i,j) …(8)
For each of the partial images Pn (x, y), a normal distribution function N (i, j) is subjected to a convolution operation (filtering operation) as shown in the following equation (8), and a processed partial image On ( x, y) are generated respectively. That is, this convolution calculation is performed for each subject area. In Expression (8), the operator “*” represents a two-dimensional convolution operation.
On (x, y) = Pn (x, y) * N (i, j) (8)
正規分布関数N(i,j)は、次式(9)で表される。
N(i,j)=1/sqrt(2πσ2)×exp(−(i2+j2)/(2σ2)) …(9)
ただし、式(9)において、変数σは、標準偏差を表し、σ=0のとき、正規分布関数N(i,j)の値が1をとるものとする。
The normal distribution function N (i, j) is expressed by the following equation (9).
N (i, j) = 1 / sqrt (2πσ 2 ) × exp (− (i 2 + j 2 ) / (2σ 2 )) (9)
However, in equation (9), the variable σ represents the standard deviation, and when σ = 0, the value of the normal distribution function N (i, j) is 1.
いま、標準偏差σを、次式(10)のように定義する。
σ=|dn|/f …(10)
ただし、式(10)において、値fは、画像処理制御パラメータであり、値dnは、各部分画像Pnの代表デフォーカス量である。
Now, the standard deviation σ is defined as in the following equation (10).
σ = | dn | / f (10)
However, in Expression (10), the value f is an image processing control parameter, and the value dn is a representative defocus amount of each partial image Pn.
ここで、画像処理制御パラメータfの設定方法を図9を用いて説明する。図9は、図7に示す撮影画像例における各被写体a〜dによる各部分画像Pa、Pb、PcおよびPdのデフォーカス量dnの例を示す。また、図9に対して、画像処理制御パラメータfを概念的に示す。なお、図9では、図7に示す撮影した画像例における部分画像Pa、Pb、PcおよびPd(被写体a〜d)に対応したデフォーカス量を、それぞれデフォーカス量da、db、dcおよびddで表している。また、装着された撮影レンズ101の絞り開放時の被写界深度の例を、被写界深度301で示す。
Here, a method of setting the image processing control parameter f will be described with reference to FIG. FIG. 9 shows an example of defocus amounts dn of the partial images Pa, Pb, Pc and Pd by the subjects a to d in the photographed image example shown in FIG. Further, the image processing control parameter f is conceptually shown in FIG. In FIG. 9, the defocus amounts corresponding to the partial images Pa, Pb, Pc and Pd (subjects a to d) in the photographed image example shown in FIG. 7 are defocus amounts da, db, dc and dd, respectively. Represents. An example of the depth of field when the aperture of the attached photographing
図9によれば、部分画像Paが合焦状態にあり、デフォーカス量daは0である。部分画像Pbは、至近側にデフォーカス量dbでデフォーカスしている。また、部分画像PcおよびPdは、それぞれ無限遠側にデフォーカス量dcおよびddでデフォーカスしている。さらに、部分画像Pa、PbおよびPcが被写界深度301内にあることが示されている。
According to FIG. 9, the partial image Pa is in focus and the defocus amount da is zero. The partial image Pb is defocused by the defocus amount db on the closest side. The partial images Pc and Pd are defocused by defocus amounts dc and dd on the infinity side, respectively. Further, it is shown that the partial images Pa, Pb and Pc are within the depth of
画像処理制御パラメータfは、例えば装着されたレンズのF値を用いてFδという値が用いられる。ただし、δは許容錯乱円である。これに限らず、画像処理制御パラメータfは、操作部122の操作により手動で設定してもよい。このように設定した画像処理パラメータfにより、合焦した測距点のデフォーカス量を中心として±f/2の範囲内は主被写体、この範囲外は他の被写体と分類する。
As the image processing control parameter f, for example, a value of Fδ is used by using the F value of the attached lens. Where δ is an allowable circle of confusion. Not limited to this, the image processing control parameter f may be manually set by operating the
上述した式(10)により、標準偏差σの値は、デフォーカス量dnと画像処理制御パラメータfに応じて変化する。そのため、それぞれの部分画像Pnに加えられる画像処理の量も、デフォーカス量dnおよび画像処理制御パラメータfに伴い変化する。デフォーカス量dnが0のときは標準偏差σ=0となり、正規分布関数N(i,j)の値が1となる。したがって、式(8)の畳み込み演算において部分画像Pn(x,y)=処理済み部分画像On(x,y)となり、部分画像Pn(x,y)は変化しない。 The value of the standard deviation σ changes according to the defocus amount dn and the image processing control parameter f according to the above-described equation (10). Therefore, the amount of image processing applied to each partial image Pn also varies with the defocus amount dn and the image processing control parameter f. When the defocus amount dn is 0, the standard deviation σ = 0, and the value of the normal distribution function N (i, j) is 1. Therefore, in the convolution calculation of Expression (8), partial image Pn (x, y) = processed partial image On (x, y), and partial image Pn (x, y) does not change.
一方、デフォーカス量dnの絶対値が大きくなるほど、画像処理の強度が大きくなり、画像処理後の、デフォーカス量が0以外の部分画像Pnのボケ強度が大きくなる。また、デフォーカス量dnの絶対値が0でない場合、画像処理制御パラメータfの値が小さくなるほど、正規分布関数N(i,j)に従い画像処理の強度が大きくなり、画像処理後の部分画像Pnのボケ強度は大きくなる。 On the other hand, as the absolute value of the defocus amount dn increases, the intensity of the image processing increases, and the blur intensity of the partial image Pn having a defocus amount other than 0 after the image processing increases. If the absolute value of the defocus amount dn is not 0, the smaller the value of the image processing control parameter f, the greater the intensity of image processing according to the normal distribution function N (i, j), and the partial image Pn after image processing. The bokeh intensity increases.
換言すれば、画像処理制御パラメータfは、デジタル信号処理部111における画像処理による被写界深度を表すパラメータであるといえる。画像処理制御パラメータfは、合焦状態にある主被写体a以外の被写体にボケ付加処理を施そうとしたとき、主被写体aのみが、画像処理制御パラメータfに示される被写界深度内に入るように設定される。したがって、装着された撮影レンズ101の開放時の被写界深度301内に入っている主被写体a以外の被写体である被写体bおよびcに対してボケ付加処理を施すことができ、主被写体aを他の被写体b〜dに比べて相対的に際立たせることができる。
In other words, the image processing control parameter f can be said to be a parameter representing the depth of field by the image processing in the digital
画像処理制御パラメータfの設定によっては、装着した撮影レンズの口径より大口径の撮影レンズで撮影したボケ効果を、後処理により得ることができる。また、高輝度な被写体を撮影するときに、シャッター速度の高速側の限界を超えるために絞り開口を絞って露光量を調節する場合でも、絞り開口を大きくして撮影した場合のボケ効果を後処理により得ることができる。 Depending on the setting of the image processing control parameter f, it is possible to obtain a blur effect photographed with a photographing lens having a larger aperture than that of the mounted photographing lens by post-processing. Also, when shooting a high-brightness subject, the blurring effect when shooting with a large aperture opening is reduced even when adjusting the exposure amount by reducing the aperture opening to exceed the limit on the high-speed side of the shutter speed. It can be obtained by processing.
また、部分画像Pnに対して畳み込み演算する関数は、式(9)に示した正規分布関数に限定されず、他の分布関数によっても付加するボケ量の制御を行うことができる。また、部分画像Pnに施す画像処理は、ボケ付加処理に限定されない。例えば、デフォーカス量dnに応じたシャープネス処理を部分画像Pnに施してもよい。また例えば、コントラストや明度、彩度を、デフォーカス量dnに応じて部分画像Pn毎に変化させることも考えられる。 Further, the function for performing the convolution operation on the partial image Pn is not limited to the normal distribution function shown in Expression (9), and the amount of blur to be added can be controlled by other distribution functions. Further, the image processing applied to the partial image Pn is not limited to the blur addition processing. For example, sharpness processing corresponding to the defocus amount dn may be performed on the partial image Pn. Further, for example, it is conceivable to change the contrast, lightness, and saturation for each partial image Pn according to the defocus amount dn.
以上説明したように、本発明によれば、予め撮影した画像データから複数の被写体の領域を検知し、それぞれの被写体の領域毎にデフォーカス量を検出することで被写体に注目したデフォーカス量分布を得る。これにより、撮影者が意図した被写体の領域のみに画像処理を施すことができる。 As described above, according to the present invention, a defocus amount distribution focused on a subject by detecting a plurality of subject areas from pre-captured image data and detecting a defocus amount for each subject area. Get. As a result, image processing can be performed only on the area of the subject intended by the photographer.
Claims (9)
前記撮像素子から出力された前記像信号の位相差に基づいて被写体のデフォーカス量を検出する焦点検出手段と、
前記撮像素子から出力された前記画像信号に対して被写体検知処理を行い、検知された被写体の領域に対応する前記撮像素子上の領域を特定する被写体検知手段とを有し、
前記焦点検出手段は、前記被写体検知手段で特定された前記被写体の領域に対応する前記撮像素子上の領域から出力された前記像信号の位相差に基づいて、前記検知された被写体のデフォーカス量を検出することを特徴とする画像処理装置。 An imaging device that photoelectrically converts a subject image to generate and output an image signal, and that can output image signals obtained by independently receiving light beams that have passed through different areas of the exit pupil of the imaging optical system Elements,
Focus detection means for detecting the defocus amount of the object based on the phase difference between the image signal output from the imaging element,
Wherein performs subject detection processing on the image signal output from the imaging device, and an object detecting means for specifying a region on the imaging element corresponding to the sensed area of the photographic material was,
Said focus detecting means, based on the phase difference of the image signal output from the region on the imaging element corresponding to the realm of the subject identified by the subject detecting means, the defocusing of the sensed object An image processing apparatus for detecting an amount .
前記画像処理手段は、前記被写体検知手段で特定された前記被写体の領域毎に、前記焦点検出手段で検出された前記デフォーカス量に応じて前記所定の画像処理を行うことを特徴とする請求項1に記載の画像処理装置。 The image processing means performs the predetermined image processing for each area of the subject specified by the subject detection means according to the defocus amount detected by the focus detection means. The image processing apparatus according to 1.
前記画像信号に対してボケを付加するボケ付加処理を前記所定の画像処理として適用し、前記デフォーカス量が小さい前記被写体の領域ほど付加するボケ強度が小さくなるように、前記被写体の領域の画像信号にボケ付加処理を適用する
ことを特徴とする請求項2に記載の画像処理装置。 The image processing means includes
A blur addition process for adding blur to the image signal is applied as the predetermined image processing, and the image of the subject area is reduced so that the blur intensity to be added becomes smaller as the subject area has a smaller defocus amount. The image processing apparatus according to claim 2 , wherein blur addition processing is applied to the signal .
前記被写体検知手段で特定された前記被写体の領域に対応する前記撮像素子上の領域から出力された前記像信号の位相差に基づいて検出された前記デフォーカス量の平均値、当該デフォーカス量のうち合焦位置が最も手前で検知されたデフォーカス量、又は、当該デフォーカス量のうち最も像信号のS/Nの高い前記デフォーカス量のうちの何れかを、前記被写体の領域に対応する前記デフォーカス量として検出する
ことを特徴とする請求項1乃至請求項3の何れか1項に記載の画像処理装置。 The focus detection means includes
Mean value of the defocus amount detected based on a phase difference of the image signal output from the region on the imaging element corresponding to a region of the object identified by the object detecting means, of the defocus amount defocus amount cormorants Chi-focus position is detected in the forefront, or any of the higher the defocus amount of S / N of the most image signals of the defocus amount, corresponding to a region of the subject the image processing apparatus according to any one of claims 1 to 3, characterized in that <br/> detected as the defocus amount.
前記画像信号から色彩情報、彩度情報、コントラスト情報および輪郭情報のうち少なくとも1つを検出し、検出された情報に基づき前記被写体を検知する
ことを特徴とする請求項1乃至請求項4の何れか1項に記載の画像処理装置。 The subject detection means includes
Color information from the image signal, chroma information, detects at least one of the contrast information and contour information, any claims 1 to 4, characterized in that for detecting the object based on the detected information The image processing apparatus according to claim 1.
前記画像信号から顔を検知し、検知された顔に基づき前記被写体を検知する
ことを特徴とする請求項1乃至請求項4の何れか1項に記載の画像処理装置。 The subject detection means includes
Wherein detecting a face from an image signal, the image processing apparatus according to any one of claims 1 to 4, characterized in that for detecting the object based on the detection face.
ことを特徴とする請求項1乃至6の何れか1項に記載の画像処理装置。 The imaging device includes an imaging pixels for outputting the image signal, and a focus detection pixels for outputting the image signal
The image processing apparatus according to any one of claims 1 to 6, wherein the this.
焦点検出手段が、前記撮像素子から出力された前記像信号の位相差に基づいて被写体のデフォーカス量を検出する焦点検出ステップと、
被写体検知手段が、前記撮像装置から出力された前記画像信号に対して被写体検知処理を行い、検知された被写体の領域に対応する前記撮像素子上の領域を特定する被写体検知ステップとを有し、
前記焦点検出ステップにおいて前記焦点検出手段は、前記被写体検知ステップで特定された前記被写体の領域に対応する前記撮像素子上の領域から出力された前記像信号の位相差に基づいて、前記検知された被写体のデフォーカス量を検出する
ことを特徴とする画像処理装置の制御方法。 An imaging device that photoelectrically converts a subject image to generate and output an image signal, and that can output image signals obtained by independently receiving light beams that have passed through different areas of the exit pupil of the imaging optical system An image processing apparatus control method comprising an element,
Focus detection means, and the focus detection step of detecting a defocus amount of the object based on the phase difference between the image signal output from the imaging element,
Yes object detection means, performs subject detection processing on the image signal output from the imaging device, and a subject detection step of identifying a detected region on the imaging element corresponding to a region of the photographic material was And
Wherein said focus detection means in focus detection step, based on said phase difference of said image signal output from the region on the imaging element corresponding to the realm of the subject identified by the object detection step is the detection A method for controlling an image processing apparatus, comprising: detecting a defocus amount of a subject .
被写体像を光電変換して画像信号を生成し出力する撮像素子であって、撮像光学系の射出瞳の異なる領域を通った光束をそれぞれ独立に受光して得られた像信号を出力可能な撮像素子と、
前記撮像素子から出力された前記像信号の位相差に基づいて被写体のデフォーカス量を検出する焦点検出手段と、
前記撮像素子から出力された前記画像信号に対して被写体検知処理を行い、検知された被写体の領域に対応する前記撮像素子上の領域を特定する被写体検知手段とを有し、
前記焦点検出手段は、前記被写体検知手段で特定された前記被写体の領域に対応する前記撮像素子上の領域から出力された前記像信号の位相差に基づいて、前記検知された被写体のデフォーカス量を検出することを特徴とする撮像装置。 An imaging optical system;
An imaging device that photoelectrically converts a subject image to generate and output an image signal, and that can output image signals obtained by independently receiving light beams that have passed through different areas of the exit pupil of the imaging optical system Elements,
Focus detection means for detect the defocus amount of the object based on the phase difference before Kizo signal outputted from the imaging element,
Wherein performs subject detection processing on the image signal output from the imaging device, and an object detecting means for specifying a region on the imaging element corresponding to the sensed area of the photographic material was,
Said focus detecting means, based on the phase difference of the image signal output from the region on the imaging element corresponding to the realm of the subject identified by the subject detecting means, the defocusing of the sensed object An imaging apparatus characterized by detecting an amount .
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2009052557A JP5289105B2 (en) | 2009-03-05 | 2009-03-05 | Image processing apparatus, control method therefor, and imaging apparatus |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2009052557A JP5289105B2 (en) | 2009-03-05 | 2009-03-05 | Image processing apparatus, control method therefor, and imaging apparatus |
Publications (3)
| Publication Number | Publication Date |
|---|---|
| JP2010206722A JP2010206722A (en) | 2010-09-16 |
| JP2010206722A5 JP2010206722A5 (en) | 2012-04-12 |
| JP5289105B2 true JP5289105B2 (en) | 2013-09-11 |
Family
ID=42967708
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2009052557A Active JP5289105B2 (en) | 2009-03-05 | 2009-03-05 | Image processing apparatus, control method therefor, and imaging apparatus |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP5289105B2 (en) |
Families Citing this family (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP6486453B2 (en) * | 2013-01-31 | 2019-03-20 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
| JP6138632B2 (en) * | 2013-08-28 | 2017-05-31 | オリンパス株式会社 | Imaging apparatus, imaging method, and program |
| JP6485116B2 (en) | 2015-02-27 | 2019-03-20 | 富士通株式会社 | Focus position detection device, focus position detection method, and computer program for focus position detection |
| EP4386659A1 (en) | 2015-03-10 | 2024-06-19 | Canon Kabushiki Kaisha | Image processing method, image processing device, and image pickup apparatus |
| JP6275174B2 (en) | 2015-03-10 | 2018-02-07 | キヤノン株式会社 | Image processing method, image processing apparatus, and imaging apparatus |
| JP6891470B2 (en) * | 2015-12-04 | 2021-06-18 | 株式会社ニコン | Imaging device |
| JP6672085B2 (en) * | 2016-06-17 | 2020-03-25 | キヤノン株式会社 | Information processing apparatus, information processing method, and program |
| JP7771308B1 (en) * | 2024-08-30 | 2025-11-17 | アキュートロジック株式会社 | Focus adjustment device and control method thereof, imaging device, and computer-readable storage medium |
| JP7741264B1 (en) * | 2024-09-02 | 2025-09-17 | アキュートロジック株式会社 | Focus adjustment device control method, focus adjustment device, and imaging device |
Family Cites Families (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH09181913A (en) * | 1995-12-26 | 1997-07-11 | Olympus Optical Co Ltd | Camera system |
| JP4665718B2 (en) * | 2005-10-28 | 2011-04-06 | 株式会社ニコン | Imaging device |
| JP5066851B2 (en) * | 2006-07-05 | 2012-11-07 | 株式会社ニコン | Imaging device |
-
2009
- 2009-03-05 JP JP2009052557A patent/JP5289105B2/en active Active
Also Published As
| Publication number | Publication date |
|---|---|
| JP2010206722A (en) | 2010-09-16 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5173954B2 (en) | Image processing apparatus and image processing method | |
| JP5289105B2 (en) | Image processing apparatus, control method therefor, and imaging apparatus | |
| JP5066851B2 (en) | Imaging device | |
| RU2585235C2 (en) | Image capture devices | |
| JP5183715B2 (en) | Image processing apparatus and image processing method | |
| US20160088215A1 (en) | Focus adjustment apparatus and control method therefor | |
| JP5348258B2 (en) | Imaging device | |
| JP6974599B2 (en) | Image pickup device, distance measurement method, distance measurement program and recording medium | |
| JP5127628B2 (en) | Image processing apparatus and image processing method | |
| WO2013171840A1 (en) | Imaging apparatus, and imaging apparatus control method | |
| JP2000155257A (en) | Method and device for autofocusing | |
| JP2014130231A (en) | Imaging apparatus, method for controlling the same, and control program | |
| CN106993110A (en) | Camera device and control method thereof | |
| JP5597942B2 (en) | Electronic camera | |
| JP4871664B2 (en) | IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD | |
| JP5352003B2 (en) | Image processing apparatus and image processing method | |
| JP6223502B2 (en) | Image processing apparatus, image processing method, program, and storage medium storing the same | |
| JP5793210B2 (en) | Imaging device | |
| JP2016018034A (en) | IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM | |
| JP6613065B2 (en) | FOCUS DETECTION DEVICE, ITS CONTROL METHOD, AND IMAGING DEVICE | |
| JP2017134154A (en) | Focus control device, imaging device, and focus control program | |
| JP6378526B2 (en) | Imaging apparatus and control method thereof | |
| JP4905225B2 (en) | Imaging device | |
| JP6442824B2 (en) | Focus detection device | |
| JP2023075146A (en) | Imaging apparatus |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120229 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120229 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130327 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130507 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130604 |
|
| R151 | Written notification of patent or utility model registration |
Ref document number: 5289105 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |