JP2012231324A - Imaging apparatus and control method - Google Patents
Imaging apparatus and control method Download PDFInfo
- Publication number
- JP2012231324A JP2012231324A JP2011098589A JP2011098589A JP2012231324A JP 2012231324 A JP2012231324 A JP 2012231324A JP 2011098589 A JP2011098589 A JP 2011098589A JP 2011098589 A JP2011098589 A JP 2011098589A JP 2012231324 A JP2012231324 A JP 2012231324A
- Authority
- JP
- Japan
- Prior art keywords
- tracking
- image
- image data
- exposure control
- correction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Studio Devices (AREA)
- Exposure Control For Cameras (AREA)
Abstract
【課題】 露出制御に用いるデータに基づいて被写体追尾を行う場合に、精度よく被写体追尾を行うことができるようにする。
【解決手段】 撮像した被写体像に応じた信号を出力する撮像素子と、前記撮像素子から出力された信号に基づく画像データを用いて露出制御を行う露出制御手段と、前記露出制御に用いる複数の画像データを用いて所定の条件を満たす対象の追尾を行う追尾手段と、前記追尾に用いる複数の画像データのそれぞれの輝度に関する値が近づくように補正を行う補正手段と、を有し、前記追尾手段は、前記補正が行われた場合、補正した結果に基づいて前記追尾を行う。
【選択図】 図4PROBLEM TO BE SOLVED: To accurately perform subject tracking when subject tracking is performed based on data used for exposure control.
An image sensor that outputs a signal corresponding to a captured subject image, an exposure control unit that performs exposure control using image data based on a signal output from the image sensor, and a plurality of sensors used for the exposure control Tracking means that performs tracking of a target that satisfies a predetermined condition using image data, and correction means that performs correction so that values relating to the luminance of each of the plurality of image data used for tracking are approximated. When the correction is performed, the means performs the tracking based on the corrected result.
[Selection] Figure 4
Description
本発明は、露出制御に用いるデータに基づいて被写体追尾を行う撮像装置に関する。 The present invention relates to an imaging apparatus that performs subject tracking based on data used for exposure control.
従来、撮像画面内で主要被写体がどこにあるかを認識し、その位置を自動的に追尾する、いわゆる、被写体追尾機能を有する撮像装置が知られている。この被写体追尾機能を用いることで、動きのある主要被写体に対して連続的に自動焦点調節制御(AF制御)や露出制御(AE制御)を行うことが可能となる。 2. Description of the Related Art Conventionally, there is known an imaging apparatus having a so-called subject tracking function that recognizes where a main subject is in an imaging screen and automatically tracks its position. By using this subject tracking function, it is possible to continuously perform automatic focus adjustment control (AF control) and exposure control (AE control) on a moving main subject.
このような被写体追尾機能を有する撮像装置の一例として、一眼レフカメラのような、撮像素子とは別に測光に用いる測光部を有する撮像装置において、測光部から出力される測光データに基づいて被写体追尾を行うものが特許文献1に記載されている。 As an example of an imaging apparatus having such a subject tracking function, in an imaging apparatus such as a single-lens reflex camera having a photometry unit used for photometry separately from an image sensor, subject tracking is performed based on photometric data output from the photometry unit. Japanese Patent Application Laid-Open No. H10-228707 describes that.
しかしながら、特許文献1に記載された撮像装置のように、測光部から出力される測光データに基づいて被写体追尾を行う場合、以下のような問題が生じてしまう。 However, when subject tracking is performed based on photometric data output from the photometric unit as in the imaging device described in Patent Document 1, the following problems occur.
測光部から出力される測光データは露出制御にも用いられるため、露出制御に適した測光データが出力されることを優先して測光部の蓄積時間などが制御される。そのため、被写体追尾処理において2つの測光データを相関演算する場合、2つの測光データが示すそれぞれの輝度値が大きく異なっていると相関演算の精度が低下してしまい、被写体追尾ができなかったり被写体追尾の精度が低下したりしてしまう。 Since the photometric data output from the photometric unit is also used for exposure control, the accumulation time of the photometric unit is controlled with priority given to the output of photometric data suitable for exposure control. For this reason, when two photometric data are subjected to correlation calculation in the subject tracking process, if the luminance values indicated by the two photometric data are greatly different, the accuracy of the correlation calculation is reduced, and subject tracking cannot be performed. The accuracy of the will decrease.
そこで、本発明は、露出制御に用いるデータに基づいて被写体追尾を行う場合に、精度よく被写体追尾を行うことができるようにすることを目的とする。 Therefore, an object of the present invention is to enable accurate subject tracking when subject tracking is performed based on data used for exposure control.
上記目的を達成するために、本発明に係る撮像装置は、撮像した被写体像に応じた信号を出力する撮像素子と、前記撮像素子から出力された信号に基づく画像データを用いて露出制御を行う露出制御手段と、前記露出制御に用いる複数の画像データを用いて所定の条件を満たす対象の追尾を行う追尾手段と、前記追尾に用いる複数の画像データのそれぞれの輝度に関する値が近づくように補正を行う補正手段と、を有し、前記追尾手段は、前記補正が行われた場合、補正した結果に基づいて前記追尾を行うことを特徴とする。 In order to achieve the above object, an imaging apparatus according to the present invention performs exposure control using an imaging device that outputs a signal corresponding to a captured subject image and image data based on the signal output from the imaging device. Exposure control means, tracking means for tracking a target that satisfies a predetermined condition using a plurality of image data used for the exposure control, and correction so that values related to the respective luminances of the plurality of image data used for tracking are approximated Correction means for performing, when the correction is performed, the tracking means performs the tracking based on the corrected result.
また、上記目的を達成するために、本発明に係る撮像装置の制御方法は、撮像した被写体像に応じた信号を出力する撮像素子を有する撮像装置の制御方法であって、前記撮像素子から出力された信号に基づく画像データを用いて露出制御を行う露出制御ステップと、前記露出制御ステップでの露出制御に用いる複数の画像データを用いて所定の条件を満たす対象の追尾を行う追尾ステップと、前記ステップでの追尾に用いる複数の画像データのそれぞれの輝度に関する値が近づくように補正を行う補正ステップと、を有し、前記追尾ステップは、前記補正ステップでの補正が行われた場合、補正した結果に基づいて前記追尾を行うことを特徴とする。 In order to achieve the above object, a method for controlling an imaging apparatus according to the present invention is a method for controlling an imaging apparatus having an imaging element that outputs a signal corresponding to a captured subject image, and is output from the imaging element. An exposure control step for performing exposure control using image data based on the generated signal, a tracking step for tracking a target that satisfies a predetermined condition using a plurality of image data used for exposure control in the exposure control step, And a correction step for performing correction so that the values related to the brightness of each of the plurality of image data used for tracking in the step approach, and the tracking step is corrected when the correction in the correction step is performed. The tracking is performed based on the result obtained.
本発明によれば、露出制御に用いるデータに基づいて被写体追尾を行う場合に、精度よく被写体追尾を行うことができる。 According to the present invention, when subject tracking is performed based on data used for exposure control, subject tracking can be performed with high accuracy.
以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。図1は、本発明の実施形態に係る撮像装置のブロック図であり、撮像装置は、カメラ本体100と、カメラ本体100に着脱可能な交換レンズであるレンズユニット200とで構成される。
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. FIG. 1 is a block diagram of an imaging apparatus according to an embodiment of the present invention. The imaging apparatus includes a
カメラ本体100の構成について説明する。制御部101は、各種の演算処理と撮像装置の全体を統括的に制御する。
The configuration of the
ミラー102はレンズユニット200の撮影レンズ202を通った被写体像を、ファインダー使用時にはファインダーと露出制御用の撮像素子B116(第1の撮像素子)に導き、撮影時には跳ね上がり被写体像を撮像素子A(第2の撮像素子)106へと導く。以下では、ミラー102の状態について、撮影レンズ202を通った被写体像をファインダーと撮像素子B116に導く状態のことをダウン状態、撮影レンズ202を通った被写体像を撮像素子A106に導く状態のことをアップ状態とする。また、ミラー102をダウン状態にするための動作をダウン動作、アップ状態にするための動作をアップ動作とする。ミラー駆動部103は、制御部101からの制御信号に従ってミラー102を駆動する。
The
シャッタ機構104はフォーカルプレーン型の先幕/後幕に相当するシャッタ幕を有していて、撮影レンズ202を通ってきた被写体像が撮像素子A106に導かれる時間を制御する。シャッタ駆動部105は、制御部101からの制御信号に従ってシャッタ機構104の駆動を行う。
The
撮像素子A106は撮影レンズ202により結像された被写像に応じた撮像信号を出力する(固体)撮像素子であり、例えば、CCDセンサやCMOSセンサなどである。
The image sensor A106 is a (solid) image sensor that outputs an image signal corresponding to the image formed by the photographing
撮像信号処理部A107は、撮像素子A106から出力される撮像信号の増幅処理や、アナログからデジタルへの変換を行うA/D変換処理、A/D変換後の画像データに対するキズ補正等の各種の補正処理、或いは、画像データを圧縮する圧縮処理等を行う。タイミング発生部A108は、撮像素子A106と撮像信号処理部A107に対して各種のタイミング信号を出力する。 The imaging signal processing unit A107 performs various processing such as amplification processing of the imaging signal output from the imaging device A106, A / D conversion processing for converting from analog to digital, and defect correction for image data after A / D conversion. Correction processing or compression processing for compressing image data is performed. The timing generator A108 outputs various timing signals to the image sensor A106 and the image signal processor A107.
メモリ部109は、撮像信号処理部A107により処理された画像データ等を一時的に記憶し、また各種の調整値や制御部101による各種の制御を実行させるためのプログラムなどを記憶する。
The
記録媒体制御インターフェース(I/F)部110は、記録媒体111に対する画像データ等の記録処理又は記録媒体111から画像データ等の読み出し処理を行うためのものである。記録媒体111は、画像データ等の各種のデータを記録する半導体メモリ等からなる着脱可能な記録媒体である。
The recording medium control interface (I / F)
表示駆動部112は、制御部101からの制御信号に従って、撮影した静止画像や動画像等を表示する表示部113を駆動する。
The
外部インターフェース(I/F)部114は、コンピュータやプリンタなどの外部機器115と画像データ、制御信号等の情報のやりとりを行う。
An external interface (I / F)
撮像素子B116は、露出制御や光源検知に用いるデータを取得するための撮像素子であり、撮像した被写体像に応じた撮像信号を出力する。本実施の形態では、RGBがストライプ配列のCCDセンサを用いるものとする。なお、読み出し時間の短いセンサであればCMOSセンサを用いてもよい。 The image sensor B116 is an image sensor for acquiring data used for exposure control and light source detection, and outputs an image signal corresponding to the captured subject image. In the present embodiment, it is assumed that a CCD sensor having RGB stripe arrangement is used. Note that a CMOS sensor may be used as long as the sensor has a short readout time.
撮像信号処理部B117は、撮像素子B116から出力される撮像信号の増幅処理や、アナログからデジタルへの変換を行うA/D変換処理、A/D変換後の画像データに対するキズ補正等の各種の補正処理、或いは、画像データを圧縮する圧縮処理等を行う。タイミング発生部B118は、撮像素子B116と撮像信号処理部B117に対して各種のタイミング信号を出力する。 The imaging signal processing unit B117 performs various processing such as amplification processing of the imaging signal output from the imaging element B116, A / D conversion processing for converting from analog to digital, and defect correction for image data after A / D conversion. Correction processing or compression processing for compressing image data is performed. The timing generator B118 outputs various timing signals to the image sensor B116 and the image signal processor B117.
ペンタプリズム119は、ミラー102で曲げられた光線を不図示のファインダと撮像素子B116へ導く。
The
焦点検出部121は、位相差方式により焦点検出を行うものであって、ミラー102を透過して反射された光線により1対の画像を取得する。制御部101は、この1対の画像のズレ量から被写体のデファーカス量を演算して撮影レンズ202の駆動量を求め、レンズ制御部201へ伝える。焦点検出駆動部120は、制御部101からの制御信号に従って焦点検出部121を駆動する。
The
次に、レンズユニット200の構成について説明する。撮影レンズ202は被写体像を撮像素子A106に結像させる。レンズ駆動部203は、焦点調節や変倍を行うために、レンズ制御部201からの制御信号に従って撮影レンズ202を駆動する。絞り機構204は撮影レンズ202を通った光束の光量を制御する。絞り駆動部205は、レンズ制御部201からの制御信号に従って絞り機構を駆動する。
Next, the configuration of the
カメラ本体100とレンズユニット200との間では、制御部101とレンズ制御部201が通信をしていて、送信/受信の管理を行っている。
The
図2は、本実施の形態の撮像装置の連写撮影シーケンスを示すタイミングチャートであり、連写撮影におけるNフレーム目(N≧1)の本画像露光開始前からN+2目フレームの本画像露光終了後まで示している。 FIG. 2 is a timing chart showing a continuous shooting sequence of the imaging apparatus according to the present embodiment. The main image exposure of the (N + 2) th frame ends from the start of the main image exposure of the Nth frame (N ≧ 1) in the continuous shooting. Shown until later.
連写撮影において、ダウン状態であったミラー102がアップ動作によりアップ状態となってから、ダウン動作が開始されるまでの間にNフレーム目の本画像露光を行う。すなわち、本画像を得るために撮像素子A106の蓄積を行う。
In continuous shooting, the main image exposure of the Nth frame is performed after the
続いて、ミラー102のダウン動作が完了しダウン状態となってから次にアップ動作が開始されるまでの間に、露出制御処理(以下、AE処理とする)の蓄積・演算及び被写体追尾処理(以下、追尾処理とする)の蓄積・演算を行う。追尾処理とは、連続する複数の画像において、撮像画面内で所定の条件を満たす追尾対象(主被写体など)の輝度パターン及び色パターンの分布からその追尾対象がどこに移動したかを演算する処理である。なお、ここでの蓄積は撮像素子B116による蓄積である。
Subsequently, during the period from the completion of the down operation of the
そして再び、ミラー102のアップ動作が完了しアップ状態となってから次にダウン動作が開始されるまでの間にN+1フレーム目の本画像露光を行う。
Then, the main image exposure for the (N + 1) th frame is performed after the up operation of the
この時、直前のダウン状態におけるAE処理の蓄積・演算の結果に基づいて露出制御を行って本画像露光を行う。また、N+1フレーム目の直前のダウン状態及びNフレーム目の直前のダウン状態における追尾処理の蓄積・演算の結果に基づいて、Nフレーム目で焦点調節の対象とした主被写体領域を追尾するようにN+1フレーム目の焦点調節処理を行う。 At this time, exposure control is performed based on the result of accumulation / calculation of the AE process in the immediately previous down state to perform the main image exposure. Further, based on the results of accumulation and calculation of the tracking process in the down state immediately before the (N + 1) th frame and the down state immediately before the Nth frame, the main subject area targeted for focus adjustment in the Nth frame is tracked. The focus adjustment process for the (N + 1) th frame is performed.
続いて再び、ミラー102のダウン動作が完了しダウン状態となってから次にアップ動作が開始されるまでの間に、AE処理の蓄積・演算及び追尾処理の蓄積・演算を行う。その後、ミラー102のアップ動作が完了しアップ状態となってから次にダウン動作が開始されるまでの間にN+2フレーム目の本画像露光を行う。以降は上述のシーケンスが繰り返される。
Subsequently, the accumulation / calculation of the AE process and the accumulation / calculation of the tracking process are performed again after the down operation of the
次に、本画像撮影に関する処理について説明する。ミラー102のアップ状態において本画像露光、すなわち、撮像素子A106の蓄積を行う。蓄積が完了すると、撮像信号処理部A107は、蓄積された撮像信号の読み出しを行う。タイミングチャートに示すように、蓄積された撮像信号の読み出しは、次の本画像の蓄積が開始するまでに完了しなければならない。
Next, processing related to the main image shooting will be described. When the
撮像信号の読み出しが完了すると、撮像信号処理部A107は、読み出した撮像信号に対して現像処理及び圧縮処理を行う。現像処理及び圧縮処理が完了すると、記録媒体制御インターフェース(I/F)部110は、記録処理を開始する。このようにして、各種処理が行われた画像データは記録媒体111に記録される。
When the readout of the imaging signal is completed, the imaging signal processing unit A107 performs development processing and compression processing on the readout imaging signal. When the development process and the compression process are completed, the recording medium control interface (I / F)
上記では、本画像の蓄積から記録処理までを説明したが、図2に示すように、Nフレーム目の撮像信号に対する現像処理に並行して、撮像信号処理部A107は、N+1フレーム目の本画像露光により蓄積された撮像信号の読み出しを行う。また、撮像信号処理部A107は、Nフレーム目の画像データに対する記録処理に並行してN+1フレーム目の撮像信号に対する現像処理とN+2フレーム目の本画像露光により蓄積された撮像信号の読み出しを行うなど、複数の処理を並行して行う。 In the above description, the process from accumulating the main image to the recording process has been described. As shown in FIG. 2, in parallel with the development process for the image signal of the Nth frame, the image signal processing unit A107 performs the process of the image of the N + 1th frame. The imaging signal accumulated by exposure is read out. Further, the imaging signal processing unit A107 performs development processing for the imaging signal of the (N + 1) th frame and reading of the imaging signal accumulated by the main image exposure of the (N + 2) th frame in parallel with the recording processing for the image data of the Nth frame. Multiple processes are performed in parallel.
図3は、図2にあるAE処理及び追尾処理の詳細に示したタイミングチャートである。 FIG. 3 is a timing chart showing details of the AE process and the tracking process shown in FIG.
ミラー102がダウン状態になると、撮像素子B116で追尾用の蓄積である蓄積1を行う。追尾処理は、追尾演算の結果を焦点調節に反映させるために、焦点調節処理のタイミングに基づいて設定される追尾リミットまでに完了しなければならない。そのため、この蓄積1は追尾演算に利用可能な信号を得ることができる最低限の蓄積時間となっている。
When the
蓄積1が完了すると、撮像信号処理部B117は、蓄積1で蓄積された撮像信号の読み出しを行う。読み出しが完了すると、撮像信号処理部B117は追尾演算を行うために現像処理を行う。現像処理が完了すると、撮像信号処理部B117は追尾演算を行う。追尾演算ではYUVと言われるデータ形式を用いるため、このYUV形式への変換を含む現像処理を行っている。このようにして得られた追尾演算の結果は次の本撮影のための焦点調節処理に用いられる。 When the accumulation 1 is completed, the imaging signal processing unit B117 reads the imaging signal accumulated in the accumulation 1. When the reading is completed, the imaging signal processing unit B117 performs a development process in order to perform a tracking calculation. When the development process is completed, the imaging signal processing unit B117 performs a tracking calculation. Since the tracking operation uses a data format called YUV, development processing including conversion to the YUV format is performed. The result of the tracking calculation obtained in this way is used for the focus adjustment processing for the next main photographing.
また、蓄積1が完了すると、蓄積1で蓄積された撮像信号の読み出しを行っているときに、撮像素子B116はAE用の蓄積である蓄積2を行う。蓄積2が完了すると、撮像信号処理部B117は蓄積2で蓄積された撮像信号の読出しを行い、蓄積1で蓄積された撮像信号に基づく画像データ(第1の画像データ)と蓄積2で蓄積された撮像信号に基づく画像データ(第2の画像データ)との加算平均演算を行う。
Further, when the accumulation 1 is completed, the image sensor B116 performs
第1の画像データと第2の画像データとの加算平均演算を行うことにより、蓄積1の蓄積時間と蓄積2の蓄積時間とを合計した蓄積時間で蓄積を行った場合と同程度にフリッカの影響が軽減された画像データが得られる。
By performing the arithmetic mean operation of the first image data and the second image data, the flicker of the same extent as when accumulation is performed with the accumulation time of the accumulation 1 and the accumulation time of the
このように加算平均演算を行って得られた画像データは、蓄積1あるいは蓄積2で蓄積された撮像信号に基づく画像データよりも長い蓄積時間で蓄積された撮像信号に基づく画像データに相当する。そのため、第1の画像データあるいは第2の画像データよりも蛍光灯下等でのフリッカ光源の影響が軽減され、蓄積1あるいは蓄積2で蓄積された撮像信号に基づく画像データを用いて露出制御を行う場合よりもより正確に露出制御を行うことができる。
The image data obtained by performing the averaging operation in this way corresponds to image data based on the imaging signal accumulated in the accumulation time longer than the image data based on the imaging signal accumulated in the accumulation 1 or the
読み出し及び加算平均演算が完了すると、撮像信号処理部B117は、加算平均演算をした画像データを撮像画面に対応させて複数領域に分割してそれぞれの領域で積分動作を行い、各領域の積分データを算出する。そして、撮像信号処理部B117はこの積分結果を用いてAE演算を行う。撮像信号処理部B117は、このAE演算により、本画像撮影時のシャッタスピード(露光時間)、絞り値、ISO値(撮像感度)などの露出制御値を決定し、制御部101はこれらの露出制御値に基づいて各部を制御し本画像撮影を行う。
When the reading and the addition average calculation are completed, the imaging signal processing unit B117 divides the image data obtained by the addition average calculation into a plurality of areas corresponding to the imaging screen, performs an integration operation in each area, and performs integration data in each area. Is calculated. Then, the imaging signal processing unit B117 performs AE calculation using this integration result. The imaging signal processing unit B117 determines exposure control values such as a shutter speed (exposure time), an aperture value, and an ISO value (imaging sensitivity) at the time of actual image shooting by the AE calculation, and the
図4は、図3で示したAE処理及び追尾処理の詳細を示している。 FIG. 4 shows details of the AE process and the tracking process shown in FIG.
図4(a)は、蓄積1で蓄積された撮像信号の流れを示している。撮像信号処理部B117は、蓄積1で撮像素子B116に蓄積された撮像信号を読み出した後、読み出した撮像信号に基づく画像データをストライプデータ1としてメモリ部109に記憶する。
FIG. 4A shows the flow of imaging signals accumulated in the accumulation 1. The imaging signal processing unit B117 reads the imaging signal accumulated in the imaging element B116 in the accumulation 1, and then stores the image data based on the readout imaging signal in the
図4(b)は、追尾処理における読み出し後から追尾演算までの詳細を示している。撮像信号処理部B117は現像処理を行う前に、メモリ部109に記憶されたストライプデータ1を読み出し、データの並び替え処理を行う。この並び替え処理の詳細については後述する。
FIG. 4B shows details from after reading in the tracking process to the tracking calculation. The imaging signal processing unit B117 reads the stripe data 1 stored in the
次に、撮像信号処理部B117は並び替え処理された画像データを現像処理して、YUV画像を生成する。また、撮像信号処理部B117は、現像処理と並行して、並び替え処理された画像データに対して、前述したAE処理の積分動作と同様にして積分データを算出する。 Next, the imaging signal processing unit B117 develops the rearranged image data to generate a YUV image. Further, in parallel with the development process, the imaging signal processing unit B117 calculates integration data for the rearranged image data in the same manner as the integration operation of the AE process described above.
撮像信号処理部B117は、この積分データを用いて、今回の蓄積1で蓄積された撮像信号に基づいて生成されたYUV画像データ(以下、今回のYUV画像とする)に対して補正処理を行う。この補正処理の詳細については後述する。 The imaging signal processing unit B117 performs correction processing on YUV image data (hereinafter referred to as the current YUV image) generated based on the imaging signal accumulated in the current accumulation 1 by using the integration data. . Details of this correction processing will be described later.
次に、撮像信号処理部B117は、補正処理された今回のYUV画像と補正処理されていない前回のYUV画像とを比較する。そして、撮像信号処理部B117は、前回のYUV画像の主被写体領域に対して今回のYUV画像の主被写体領域が撮像画面のX方向・Y方向それぞれにどの位ずれているかを算出する。撮像信号処理部B117は、このずれ量を用いて主被写体領域が撮像画面内のどこに移動したかを求め、追尾演算を行う。制御部101は、この追尾結果を用いて、今回の本画像撮影のための焦点調節処理を行う。
Next, the imaging signal processing unit B117 compares the current YUV image that has been corrected and the previous YUV image that has not been corrected. Then, the imaging signal processing unit B117 calculates how much the main subject area of the current YUV image is shifted in the X direction and the Y direction of the imaging screen with respect to the main subject area of the previous YUV image. The imaging signal processing unit B117 obtains where the main subject area has moved in the imaging screen using this shift amount, and performs a tracking calculation. The
図4(c)は、蓄積1で蓄積された撮像信号に基づく画像データと蓄積2で蓄積された撮像信号に基づく画像データとの加重平均演算の流れを示している。撮像信号処理部B117は、蓄積2で撮像素子B116に蓄積された撮像信号を読み出した後、読み出した撮像信号に基づく画像データをストライプデータ2としてメモリ部109に記憶する。
FIG. 4C shows a flow of a weighted average calculation between the image data based on the imaging signal accumulated in the accumulation 1 and the image data based on the imaging signal accumulated in the
次に、撮像信号処理部B117は、メモリ部109に記憶されたストライプデータ1及びストライプデータ2を読み出し加算平均演算を行い、得られた画像データをストライプデータ3としてメモリ部109に記憶する。ストライプデータ1及びストライプデータ2を単純に加算すると、ストライプデータ3の積分データの値が大きくなりすぎることが考えられる。そこで、加算平均演算を行うことで、ストライプデータ3の積分データの値が大きくなりすぎないようにしている。なお、ストライプデータ3の積分データの値が所定値を超えない場合であれば、ストライプデータ1及びストライプデータ2を単純に加算するようにしても構わない。
Next, the imaging signal
図4(d)は、加算平均演算後からAE演算までの詳細を示している。まず、撮像信号処理部B117は、メモリ部109に記憶されたストライプデータ3を読み出し、データの並び替え処理を行う。撮像信号処理部B117は、並び替え処理された画像データに対して、前述したAE処理の積分動作と同様にして積分データを算出する。
FIG. 4D shows details from the arithmetic mean calculation to the AE calculation. First, the imaging signal processing unit B117 reads the
撮像信号処理部B117はこの積分データを用いてAE演算を行い、今回の本画像撮影時に用いるシャッタスピード、絞り値、ISO値などの露出制御値を決定する。 The imaging signal processing unit B117 performs an AE calculation using this integral data, and determines exposure control values such as a shutter speed, an aperture value, and an ISO value used at the time of actual image capturing.
図5は、前述のストライプ配列の画像データをベイヤ配列の画像データへ並び替える並べ替え処理の例を示している。 FIG. 5 shows an example of rearrangement processing for rearranging the image data in the stripe arrangement described above into image data in the Bayer arrangement.
本実施の形態では、撮像素子B116は主として露出制御や光源検知に用いるデータを取得するために利用するので、ストライプ配列のCCDセンサを撮像素子B116に用いている。そのため、撮像素子B116から読み出された撮像信号は図5のAに示すようなストライプ配列になっている。 In the present embodiment, since the image sensor B116 is mainly used for acquiring data used for exposure control and light source detection, a stripe-array CCD sensor is used for the image sensor B116. For this reason, the image pickup signal read from the image pickup device B116 has a stripe arrangement as shown in FIG.
撮像信号処理部B117は、この撮像信号を一般的な撮像信号の配列である図5のBに示すようなベイヤ配列となるように画像データの並べ替え処理を行う。なお、撮像素子B116にベイヤ配列の撮像素子を用いる場合には、このような画像データの並び替え処理を行う必要はない。
The imaging signal processing unit B117 performs image data rearrangement processing so that this imaging signal becomes a Bayer array as shown in FIG. 5B, which is a general imaging signal array. When a Bayer array image sensor is used as the
図6は、現像処理を行う前の撮像素子の出力に基づく輝度値(現像前輝度値)をYUV画像の輝度値(現像後輝度値)に変換する際の変換特性(一般的にはガンマ特性と呼ばれている)を示した図である。図6に示されているように、現像前輝度値と現像後輝度値は比例関係にない。 FIG. 6 shows a conversion characteristic (generally a gamma characteristic) when converting a luminance value (pre-development luminance value) based on the output of the image sensor before development processing into a YUV image luminance value (development luminance value). Is called). As shown in FIG. 6, the luminance value before development and the luminance value after development are not in a proportional relationship.
本実施の形態では、今回のYUV画像と前回のYUV画像とを用いて追尾演算を行う構成であるが、今回のYUV画像の輝度値と前回のYUV画像の輝度値が大きく異なる場合、被写体追尾ができなかったり被写体追尾の精度が低下したりしてしまう。具体的には、2つのYUV画像の輝度値が大きく異なる場合、同じ主被写体領域であっても前回のYUV画像と今回のYUV画像とで輝度パターン及び色パターンの分布が大きく異なるため、追尾演算において、同じ主被写体領域であると判定されなくなってしまう。あるいは、追尾演算において、今回のYUV画像における主被写体領域とは異なる領域を前回のYUV画像における主被写体領域に相当する領域と判定されてしまう。 In the present embodiment, the tracking calculation is performed using the current YUV image and the previous YUV image, but subject tracking is performed when the luminance value of the current YUV image and the luminance value of the previous YUV image are significantly different. Cannot be performed or the accuracy of subject tracking is reduced. Specifically, when the luminance values of two YUV images are greatly different, the tracking calculation is performed because the luminance pattern and the color pattern distribution are greatly different between the previous YUV image and the current YUV image even in the same main subject region. , The same main subject region is not determined. Alternatively, in the tracking calculation, an area different from the main subject area in the current YUV image is determined as an area corresponding to the main subject area in the previous YUV image.
以上のような追尾精度の低下を軽減するために、本実施の形態では、撮像信号処理部B117は、今回のYUV画像の輝度値と前回のYUV画像の輝度値とを略同一にするための補正を行ってから、2つの画像の比較を行う。なお、追尾演算に用いる今回のYUV画像と前回のYUV画像は、ともに現像処理後の画像であるため、前回のYUV画像の輝度値と等しくなるように今回のYUV画像の輝度値を補正したとしても、正確に補正したことにはならない。そこで、撮像信号処理部B117は、YUV画像の輝度値、すなわち、現像後輝度値ではなく、現像前輝度値に基づいて今回のYUV画像の補正量を決定する。 In this embodiment, in order to reduce the decrease in tracking accuracy as described above, the imaging signal processing unit B117 is configured to make the luminance value of the current YUV image substantially the same as the luminance value of the previous YUV image. After the correction, the two images are compared. Since the current YUV image and the previous YUV image used for the tracking calculation are both developed images, the luminance value of the current YUV image is corrected to be equal to the luminance value of the previous YUV image. However, it does not mean that it was corrected accurately. Therefore, the imaging signal processing unit B117 determines the correction amount of the current YUV image based on the luminance value of the YUV image, that is, not the luminance value after development but the luminance value before development.
図7は、前回の現像前輝度値と今回の現像前輝度値とに基づいて適正な補正量を決定するための補正テーブルを示している。なお、図7の補正テーブルにおけるそれぞれの輝度値は、撮像画面の各領域の積分データを平均した輝度値である。本実施の形態では、説明を簡単にするため、各領域の積分データを単純に平均した輝度値を補正量の決定に用いるものとするが、撮影条件に応じた重み付けを各領域にかけて加重平均した輝度値を用いても構わない。 FIG. 7 shows a correction table for determining an appropriate correction amount based on the previous pre-development luminance value and the current pre-development luminance value. Note that each luminance value in the correction table of FIG. 7 is a luminance value obtained by averaging the integration data of each region of the imaging screen. In this embodiment, in order to simplify the explanation, a luminance value obtained by simply averaging the integration data of each region is used for determining the correction amount. However, weighting according to the shooting conditions is weighted and averaged over each region. A luminance value may be used.
図7に示した値は、前回の現像前輝度値と今回の現像前輝度値と上述した変換特性とに基づいて設定されたものである。そのため、撮像信号処理部B117は、図7に基づいて決定した補正量を用いて今回のYUV画像の補正処理を行うことで、前回の現像前輝度値と今回の現像前輝度値との差を正確に補正したYUV画像を得ることができる。 The values shown in FIG. 7 are set based on the previous pre-development luminance value, the current pre-development luminance value, and the conversion characteristics described above. Therefore, the imaging signal processing unit B117 performs the correction process of the current YUV image using the correction amount determined based on FIG. 7, thereby calculating the difference between the previous pre-development luminance value and the current pre-development luminance value. An accurately corrected YUV image can be obtained.
このように補正処理された今回のYUV画像と前回のYUV画像とを用いて追尾演算を行うことで、異なる蓄積時間で得られた画像データに基づいて追尾演算を行う場合であっても、精度よく被写体追尾を行うことができる。 By performing the tracking calculation using the current YUV image corrected in this way and the previous YUV image, even if the tracking calculation is performed based on image data obtained at different accumulation times, the accuracy is improved. The subject can be tracked well.
また、蓄積時間が異ならなくても、フリッカの影響が大きくなるほど短い蓄積時間であれば、複数の画像データ間で輝度値に大きな差が生じてしまう。そのような場合であっても、上述のように補正処理を行った画像を用いて追尾処理を行うことで精度よく被写体追尾を行うことができる。 Even if the accumulation times are not different, if the accumulation time is shorter as the influence of flicker becomes larger, a large difference in luminance value occurs between a plurality of image data. Even in such a case, subject tracking can be performed with high accuracy by performing the tracking process using the image subjected to the correction process as described above.
なお、上記の実施の形態のように、現像処理後の画像データを用いて追尾演算を行うのではなく、現像処理前の画像データを用いて追尾演算を行う構成であれば、追尾演算に用いる2つの画像データの輝度値の差に基づいて補正処理の補正量を決定してもよい。また、現像処理前の画像データを用いて追尾演算を行う構成であれば、追尾演算に用いる2つの画像データの露光量の差に基づいて補正処理の補正量を決定してもよい。 In addition, as in the above embodiment, the tracking calculation is not performed using the image data after the development processing, but is used for the tracking calculation if the tracking calculation is performed using the image data before the development processing. The correction amount of the correction process may be determined based on the difference between the luminance values of the two image data. Further, if the tracking calculation is performed using the image data before the development processing, the correction amount of the correction processing may be determined based on the difference between the exposure amounts of the two image data used for the tracking calculation.
また、上記の実施の形態では、蓄積1で蓄積された撮像信号に基づく画像データと蓄積2で蓄積された撮像信号に基づく画像データとの加算平均演算した結果に基づいてAE演算を行っているが、2回蓄積を行わない場合にも本発明は適用できる。
In the above-described embodiment, the AE calculation is performed based on the result of the arithmetic mean calculation of the image data based on the imaging signal accumulated in the accumulation 1 and the image data based on the imaging signal accumulated in the
また、上記の実施の形態では、連写撮影時の被写体追尾について説明を行ったが、本画像撮影前に被写体追尾を行う場合においても本発明は適用できる。 In the above embodiment, the subject tracking at the time of continuous shooting has been described. However, the present invention can also be applied to the case where the subject tracking is performed before the main image shooting.
また、上記の実施の形態で撮像信号処理部B117が実行した処理の少なくとも一部を、撮像信号処理部A107及び制御部101の少なくとも一方で行う構成であってもよい。あるいは、撮像信号処理部B117がなく、撮像信号処理部B117が実行した全ての処理を撮像信号処理部A107及び制御部101の少なくとも一方で行う構成であってもよい。
Moreover, the structure which performs at least one part of the process which imaging signal process part B117 performed in said embodiment performed at least one of imaging signal process part A107 and the
また、カメラ本体にレンズユニットが内蔵された構成であってもよい。 Moreover, the structure by which the lens unit was incorporated in the camera main body may be sufficient.
また、補正処理では、前回の現像前輝度値と今回の現像前輝度値とが等しくなるように補正しなくてもよく、被写体追尾の精度が十分得られる程度に、追尾に用いる複数の画像データのそれぞれの輝度に関する値が近づくように補正すればよい。なお、ここでの輝度に関する値には輝度値や露光量などが含まれる。 Further, in the correction process, it is not necessary to correct the previous pre-development luminance value and the current pre-development luminance value so that a plurality of pieces of image data used for tracking can be obtained to such an extent that the subject tracking accuracy is sufficiently obtained. What is necessary is just to correct | amend so that the value regarding each brightness | luminance may approach. Note that the value relating to the luminance here includes a luminance value, an exposure amount, and the like.
また、補正処理の補正量は、図7に示したような補正テーブルを用いて決定しなくてもよく、前回の現像前輝度値と今回の現像前輝度値とYUV形式に変換する際の変換特性とに基づいて演算するようにしても構わない。 The correction amount of the correction process does not have to be determined using a correction table as shown in FIG. 7. The previous pre-development luminance value, the current pre-development luminance value, and conversion when converting to the YUV format You may make it calculate based on a characteristic.
100 カメラ本体
101 制御部
106 撮像素子A
109 メモリ部
116 撮像素子B
117 撮像信号処理部B
121 焦点検出部
DESCRIPTION OF
109
117 Imaging signal processor B
121 Focus detection unit
Claims (9)
前記撮像素子から出力された信号に基づく画像データを用いて露出制御を行う露出制御手段と、
前記露出制御に用いる複数の画像データを用いて所定の条件を満たす対象の追尾を行う追尾手段と、
前記追尾に用いる複数の画像データのそれぞれの輝度に関する値が近づくように補正を行う補正手段と、を有し、
前記追尾手段は、前記補正が行われた場合、補正した結果に基づいて前記追尾を行うことを特徴とする撮像装置。 An image sensor that outputs a signal corresponding to the captured subject image;
Exposure control means for performing exposure control using image data based on a signal output from the image sensor;
Tracking means for tracking a target that satisfies a predetermined condition using a plurality of image data used for the exposure control;
Correction means for performing correction so that the values related to the luminance of each of the plurality of image data used for tracking approach,
The tracking device, when the correction is performed, performs the tracking based on a corrected result.
前記露出制御手段は、前記第2の撮像素子で撮像を行う際に、前記撮像素子から出力された信号に基づく画像データを用いて前記露出制御を行うことを特徴とする請求項1に記載の撮像装置。 A second image sensor that outputs a signal corresponding to the captured subject image;
The said exposure control means performs said exposure control using the image data based on the signal output from the said image pick-up element, when imaging with the said 2nd image pick-up element. Imaging device.
前記撮像素子から出力された信号に基づく画像データを用いて露出制御を行う露出制御ステップと、
前記露出制御ステップでの露出制御に用いる複数の画像データを用いて所定の条件を満たす対象の追尾を行う追尾ステップと、
前記ステップでの追尾に用いる複数の画像データのそれぞれの輝度に関する値が近づくように補正を行う補正ステップと、を有し、
前記追尾ステップは、前記補正ステップでの補正が行われた場合、補正した結果に基づいて前記追尾を行うことを特徴とする撮像装置の制御方法。 A method for controlling an imaging apparatus having an imaging element that outputs a signal corresponding to a captured subject image,
An exposure control step for performing exposure control using image data based on a signal output from the image sensor;
A tracking step of tracking a target that satisfies a predetermined condition using a plurality of image data used for exposure control in the exposure control step;
A correction step for performing correction so that the values related to the brightness of each of the plurality of image data used for tracking in the step approach,
In the tracking step, when the correction in the correction step is performed, the tracking is performed based on a corrected result.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2011098589A JP2012231324A (en) | 2011-04-26 | 2011-04-26 | Imaging apparatus and control method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2011098589A JP2012231324A (en) | 2011-04-26 | 2011-04-26 | Imaging apparatus and control method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2012231324A true JP2012231324A (en) | 2012-11-22 |
Family
ID=47432518
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2011098589A Withdrawn JP2012231324A (en) | 2011-04-26 | 2011-04-26 | Imaging apparatus and control method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2012231324A (en) |
-
2011
- 2011-04-26 JP JP2011098589A patent/JP2012231324A/en not_active Withdrawn
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5322783B2 (en) | IMAGING DEVICE AND CONTROL METHOD OF IMAGING DEVICE | |
| US9843735B2 (en) | Image processing apparatus, imaging apparatus comprising the same, and image processing method | |
| US10986262B2 (en) | Imaging apparatus, control method, and non-transitory storage medium | |
| JP6220225B2 (en) | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM | |
| JP5597243B2 (en) | Imaging device | |
| JP2008187615A (en) | Imaging device, imaging apparatus, control method, and program | |
| US8872963B2 (en) | Imaging apparatus and imaging method | |
| US10257437B2 (en) | Imaging apparatus and control method for positioning a plurality of images continuously captured by an image sensor | |
| JP2018031877A (en) | Image pickup device and focus adjusting method | |
| JP5393300B2 (en) | Imaging device | |
| KR20070086061A (en) | Camera and Camera Image Processing Method | |
| US11310410B2 (en) | Image capturing apparatus, method of controlling same, and storage medium | |
| US9591203B2 (en) | Image processing apparatus, image processing method, recording medium, and image pickup apparatus | |
| JP5791765B2 (en) | Imaging apparatus and control method thereof | |
| JP6393091B2 (en) | Imaging apparatus, control method therefor, program, and storage medium | |
| JP2019144502A (en) | Focus detection device and focus detection method | |
| JP2018081224A (en) | Imaging device and control method thereof | |
| JP2013044938A (en) | Imaging apparatus and imaging method | |
| JP5120414B2 (en) | Electronic camera and image processing program | |
| JP2012231324A (en) | Imaging apparatus and control method | |
| JP2012230260A (en) | Imaging apparatus and control method | |
| JP6573382B2 (en) | Imaging apparatus and photometric method | |
| JP6704718B2 (en) | Imaging device, control method thereof, and control program | |
| US20240334069A1 (en) | Image capturing apparatus, control method thereof, and storage medium | |
| JP2015204579A (en) | Imaging device |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20140701 |