JP2018182549A - Imaging device - Google Patents
Imaging device Download PDFInfo
- Publication number
- JP2018182549A JP2018182549A JP2017080135A JP2017080135A JP2018182549A JP 2018182549 A JP2018182549 A JP 2018182549A JP 2017080135 A JP2017080135 A JP 2017080135A JP 2017080135 A JP2017080135 A JP 2017080135A JP 2018182549 A JP2018182549 A JP 2018182549A
- Authority
- JP
- Japan
- Prior art keywords
- image
- row
- signal
- drive
- defective
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Transforming Light Signals Into Electric Signals (AREA)
- Studio Devices (AREA)
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
Abstract
Description
本発明は、撮像装置に関し、特には、撮像素子から得られる画像信号から記録用画素と焦点検出用画素を取得する撮像装置に関する。 The present invention relates to an imaging device, and more particularly to an imaging device that acquires recording pixels and focus detection pixels from an image signal obtained from an imaging device.
集光光学系及び撮像素子を用いた撮像装置において、撮像素子上に形成された集光用マイクロレンズ配下に備えられた画素部の光電変換部を複数に分割し、前記集光光学系の射出瞳を分割した像を画像信号として取得し、前記射出瞳を分割した像を含む画像信号を元に焦点検出をするための技術として、特許文献1が挙げられる。 In an imaging device using a focusing optical system and an imaging element, a photoelectric conversion unit of a pixel unit provided under a focusing microlens formed on the imaging element is divided into a plurality of parts, and the emission of the focusing optical system is performed. Patent document 1 is mentioned as a technique for acquiring the image which divided | segmented the pupil as an image signal, and performing focus detection based on the image signal containing the image which divided | segmented the said exit pupil.
また、撮像素子からの画素読み出し方法として、欠陥画素を含む行または列を読み飛ばすことにより製造歩留まりを向上させ低価格化を図る事のできる技術として、特許文献2が挙げられる。 In addition, as a method of reading out pixels from an imaging device, Patent Document 2 can be cited as a technology that can improve manufacturing yield and reduce cost by reading out rows or columns including defective pixels.
しかしながら、上記従来技術の構成では、以下のような問題が発生する。特許文献1で開示された技術において、撮像素子の製造時ばらつきなどに起因した欠陥、特には行(ライン)方向に欠陥が連続して発生してしまうと、その行を焦点検出演算に使用した場合、焦点検出の精度が下がってしまう。また、特許文献2で開示された技術において、焦点検出用の画素を含む行について欠陥画素を含む行を読み飛ばしてしまうと焦点検出用の画素が減ってしまい焦点検出の精度が下がってしまう。 However, in the configuration of the prior art, the following problems occur. In the technique disclosed in Patent Document 1, when a defect caused by manufacturing variation of an imaging element or the like, in particular, a defect occurs continuously in a line (line) direction, the line is used for focus detection calculation. In this case, the accuracy of focus detection is reduced. Further, in the technique disclosed in Patent Document 2, if the row including the defective pixel is skipped for the row including the pixel for focus detection, the pixels for focus detection are reduced, and the accuracy of focus detection is lowered.
本発明はこのような従来技術の課題に鑑みなされたものであり、撮像面位相差方式を用いた焦点検出において、撮像素子の歩留まりを下げる事なく、好適な焦点検出により好適な撮影画像の実現ができる撮像装置を提供することにある。 The present invention has been made in view of the problems of the related art as described above, and in focus detection using the imaging surface phase difference method, a preferred captured image is realized by suitable focus detection without lowering the yield of the imaging device. Providing an imaging device capable of
上記の目的を達成するために、本発明に係る撮像装置は、
1つのマイクロレンズ内に複数の光電変換部を有し、前記複数の光電変換部から少なくとも2つ以上に分けて画素信号を読み出す第一の駆動と、前記複数の光電変換部から一度に画素信号を読み出す第二の駆動を備え、前記第一の駆動を任意の行に設定可能な撮像素子と、前記撮像素子の瞳分割信号の欠陥行情報を予め記憶した欠陥行データベース手段と、前記欠陥行データベース手段に記憶された欠陥行に対しては、前記第一の駆動を行わない読み出し制御を行う読み出し制御手段と、前記読み出し制御手段は、前記第一の駆動を行わなかった前記欠陥行近傍の、非欠陥行に対して前記第一の駆動を行うことを有することを特徴とする。
In order to achieve the above object, an imaging device according to the present invention is
A first drive having a plurality of photoelectric conversion units in one microlens and reading out pixel signals by dividing into at least two or more from the plurality of photoelectric conversion units, and pixel signals at one time from the plurality of photoelectric conversion units An imaging element capable of setting the first drive to an arbitrary row; defect row database means storing in advance defect row information of pupil division signals of the imaging device; and the defect row The read control means for performing read control not to perform the first drive with respect to the defective line stored in the database means, and the read control means are provided in the vicinity of the defect line for which the first drive was not performed. And performing the first driving on a non-defective row.
本発明によれば、撮像面位相差方式を用いた焦点検出において、撮像素子の歩留まりを下げる事なく、好適な焦点検出により好適な撮影画像の実現ができる。 According to the present invention, in focus detection using the imaging surface phase difference method, a suitable captured image can be realized by suitable focus detection without lowering the yield of the imaging device.
以下に、本発明の各実施形態を添付図面に基づいて詳細に説明する。 Below, each embodiment of the present invention is described in detail based on an attached drawing.
以下、本発明の好適な実施形態について、図面を参照しながら詳細に説明する。図1は、本発明の実施形態に係る撮像装置の一例としてのレンズ交換式カメラの機能構成例を示すブロック図である。本実施形態の撮像装置は交換可能なレンズユニット101及びカメラ本体102から構成されている。レンズ全体の動作を統括制御するレンズ制御部108と、レンズユニット101を含めたカメラシステム全体の動作を統括するカメラ制御部124とは、レンズマウントに設けられた端子を通じて相互に通信可能である。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 is a block diagram showing an example of a functional configuration of a lens-interchangeable camera as an example of an imaging device according to an embodiment of the present invention. The imaging apparatus of the present embodiment is composed of a replaceable lens unit 101 and a camera body 102. The lens control unit 108 that integrally controls the operation of the entire lens and the camera control unit 124 that generally controls the operation of the entire camera system including the lens unit 101 can communicate with each other through a terminal provided on the lens mount.
まず、レンズユニット101の構成について説明する。固定レンズ103、絞り104、フォーカスレンズ105は撮影光学系を構成する。絞り104は、絞り駆動部106によって駆動され、後述する撮像素子110への入射光量を制御する。フォーカスレンズ105はフォーカスレンズ駆動部107によって駆動され、フォーカスレンズ105の位置に応じて撮像光学系の合焦距離が変化する。絞り駆動部106、フォーカスレンズ駆動部107はレンズ制御部108によって制御され、絞り104の開口量や、フォーカスレンズ105の位置を決定する。 First, the configuration of the lens unit 101 will be described. The fixed lens 103, the diaphragm 104, and the focus lens 105 constitute an imaging optical system. The diaphragm 104 is driven by the diaphragm drive unit 106 to control the amount of light incident on the image sensor 110 described later. The focus lens 105 is driven by the focus lens drive unit 107, and the focusing distance of the imaging optical system changes according to the position of the focus lens 105. The diaphragm drive unit 106 and the focus lens drive unit 107 are controlled by the lens control unit 108 to determine the aperture of the diaphragm 104 and the position of the focus lens 105.
レンズ操作部109は、AF/MFモードの切り替え、撮影距離範囲の設定、手ブレ補正モードの設定など、ユーザがレンズユニット101の動作に関する設定を行うための入力デバイス群である。レンズ操作部109が操作された場合、レンズ制御部108が操作に応じた制御を行う。 The lens operation unit 109 is an input device group for the user to make settings regarding the operation of the lens unit 101, such as switching of AF / MF mode, setting of shooting distance range, and setting of camera shake correction mode. When the lens operation unit 109 is operated, the lens control unit 108 performs control according to the operation.
レンズ制御部108は、後述するカメラ制御部124から受信した制御命令や制御情報に応じて絞り駆動部106やフォーカスレンズ駆動部107を制御し、また、レンズ制御情報をカメラ制御部124に送信する。 The lens control unit 108 controls the diaphragm drive unit 106 and the focus lens drive unit 107 according to control commands and control information received from a camera control unit 124 described later, and transmits lens control information to the camera control unit 124. .
次に、カメラ本体102の構成について説明する。カメラ本体102はレンズユニット101の撮影光学系を通過した光束から撮像信号を取得できるように構成されている。 Next, the configuration of the camera body 102 will be described. The camera body 102 is configured to be able to obtain an imaging signal from the light flux that has passed through the imaging optical system of the lens unit 101.
撮像素子110はCCDやCMOSセンサにより構成される。レンズユニット101の撮影光学系から入射した光束は撮像素子110の受光面上に結像し、撮像素子110に配列された画素に設けられたフォトダイオードにより、入射光量に応じた信号電荷に変換される。各フォトダイオードに蓄積された信号電荷は、カメラ制御部124の指令に従ってタイミングジェネレータ126が出力する駆動パルスより、信号電荷に応じた電圧信号として撮像素子110から順次読み出される。 The imaging element 110 is configured of a CCD or a CMOS sensor. A light flux incident from the photographing optical system of the lens unit 101 forms an image on the light receiving surface of the imaging element 110, and is converted into a signal charge according to the incident light amount by a photodiode provided in a pixel arrayed in the imaging element 110 Ru. The signal charge stored in each photodiode is sequentially read out from the imaging device 110 as a voltage signal corresponding to the signal charge from the drive pulse output from the timing generator 126 in accordance with an instruction from the camera control unit 124.
ここで本実施形態の撮像素子110について図2を用いて説明する。本実施例では、マイクロレンズアレイを形成する個々のマイクロレンズ201を1つの画素と定義し、これを単位画素202とする。 Here, the imaging element 110 according to the present embodiment will be described with reference to FIG. In this embodiment, each of the microlenses 201 forming the microlens array is defined as one pixel, and this is defined as a unit pixel 202.
また、1つのマイクロレンズ201に対して複数の分割画素が対応するように配置されている。なお、本実施例では単位画素202には分割画素がX軸方向に2個あり、それぞれ201A、201Bと定義する。 In addition, a plurality of divided pixels are arranged to correspond to one microlens 201. In the present embodiment, the unit pixel 202 has two divided pixels in the X-axis direction, which are respectively defined as 201A and 201B.
図3は、固定レンズ103から射出された光が1つのマイクロレンズ201を通過して撮像素子110で受光される様子を光軸Zに対して垂直方向(Y軸方向)から観察した図である。301、302は撮影レンズの射出瞳を表す。 FIG. 3 is a view of a state in which light emitted from the fixed lens 103 passes through one microlens 201 and is received by the imaging device 110 from a direction perpendicular to the optical axis Z (Y-axis direction). . Reference numerals 301 and 302 denote the exit pupils of the photographing lens.
射出瞳を通過した光は、光軸Zを中心として単位画素202に入射する。図3に示すように瞳領域301を通過する光束はマイクロレンズ201を通して201Aで受光され、瞳領域302を通過する光束はマイクロレンズ201を通して201Bで受光される。したがって、201Aと201Bはそれぞれ撮影レンズの射出瞳の異なる領域の光を受光している。このように瞳分割された201Aの信号をX軸方向に並ぶ複数の単位画素202から取得し、これらの出力信号群で構成した被写体像をA像とする。同様に瞳分割された201Bの信号をX軸方向に並ぶ複数の単位画素202から取得し、これらの出力信号群で構成した被写体像をB像とする。 The light passing through the exit pupil is incident on the unit pixel 202 around the optical axis Z. As shown in FIG. 3, the light flux passing through the pupil region 301 is received by the micro lens 201 at 201 A, and the light flux passing through the pupil region 302 is received by the micro lens 201 at 201 B. Therefore, each of 201A and 201B receives light in different regions of the exit pupil of the photographing lens. The signal of 201A thus pupil-divided is acquired from the plurality of unit pixels 202 aligned in the X-axis direction, and an object image composed of these output signal groups is taken as an A-image. Similarly, a pupil-divided signal 201 B is acquired from a plurality of unit pixels 202 aligned in the X-axis direction, and an object image formed by these output signal groups is taken as a B image.
A像とB像に対して相関演算を実施し、像のずれ量(瞳分割位相差)を検出する。さらに像のずれ量に対して焦点位置と光学系から決まる変換係数を乗じることで、画面内の任意の被写体位置に対応した焦点位置を算出することができる。ここで算出された焦点位置情報を基に図3では不図示のフォーカスレンズ105を制御することで撮像面位相差AFが可能となる。また、A像信号とB像信号との足し合わせをA+B像信号とすることで、このA+B像信号を前述した撮像画素に用いることが出来る。 A correlation operation is performed on the A and B images to detect the amount of image shift (pupil division phase difference). Further, by multiplying the shift amount of the image by the focal position and a conversion coefficient determined from the optical system, it is possible to calculate the focal position corresponding to an arbitrary object position on the screen. By controlling the focus lens 105 (not shown in FIG. 3) based on the focus position information calculated here, imaging surface phase difference AF becomes possible. Further, by adding the A image signal and the B image signal to the A + B image signal, this A + B image signal can be used for the above-described imaging pixel.
本発明の特徴的な部分で、後述するAF用信号生成範囲設定部において、撮像素子110においてフォトダイオードAの信号を読み出す範囲を設定し、撮像画素(A+B像)のみを読み出す範囲とのすみ分けを行う。フォトダイオードAから得た焦点検出用画素を基に、後述する加算信号分離手段112で2つの像信号を生成し、AF信号処理部114で2つの像信号に対して相関演算を行い、像ずれ量や各種の信頼性情報を算出する。 In the characteristic part of the present invention, the range for reading out the signal of the photodiode A in the image sensor 110 is set in the AF signal generation range setting unit to be described later, and the division with the range for reading only the imaging pixel (A + B image) I do. Based on the focus detection pixels obtained from the photodiode A, two image signals are generated by an addition signal separation unit 112 described later, and the AF signal processing unit 114 performs correlation operation on the two image signals, and an image shift is generated. Calculate quantity and various reliability information.
CDS/AGC/ADコンバータ111は、撮像素子110から読み出された撮像画素(A+B像)及び焦点検出用画素(A像)に対し、リセットノイズを除去する為の相関二重サンプリング、ゲインの調節、信号のデジタル化を行う。CDS/AGC/ADコンバータ111で処理された信号は、加算信号分離手段112に入力され加算信号分離手段112は、A+B像からA像を減算する事でB像を生成し、A+B像を画像処理部113に、A像とB像をAF信号処理部114にそれぞれ出力する。 The CDS / AGC / AD converter 111 performs correlated double sampling and gain adjustment to remove reset noise with respect to the imaging pixel (A + B image) and the focus detection pixel (A image) read from the imaging element 110. Digitize the signal. The signal processed by the CDS / AGC / AD converter 111 is input to the addition signal separation unit 112, and the addition signal separation unit 112 subtracts the A image from the A + B image to generate a B image, and processes the A + B image. The image A and the image B are output to the AF signal processing unit 114, respectively.
画像処理部113は、CDS/AGC/ADコンバータ111から出力された撮像信号に対し、例えば、色変換、ホワイトバランス、ガンマ補正等の既知の画像処理や、解像度変換処理、画像圧縮処理等を行い、各処理を施された画像信号をバス116を介してSDRAM121に格納する。SDRAM121に格納された画像信号は、バス116を介して表示制御部117によって読み出され、表示部118に表示される。また、撮像信号の記録を行う動作モードでは、SDRAM121に格納された画像信号は記録媒体制御部119によって記録媒体120に記録される。 The image processing unit 113 performs known image processing such as color conversion, white balance, and gamma correction, resolution conversion processing, image compression processing, and the like on the imaging signal output from the CDS / AGC / AD converter 111, for example. The image signal subjected to each processing is stored in the SDRAM 121 via the bus 116. The image signal stored in the SDRAM 121 is read by the display control unit 117 via the bus 116 and displayed on the display unit 118. In the operation mode for recording an imaging signal, the image signal stored in the SDRAM 121 is recorded on the recording medium 120 by the recording medium control unit 119.
ROM122にはカメラ制御部124が実行する制御プログラム及び制御に必要な各種データ等が格納されており、フラッシュROM123には、ユーザ設定情報等のカメラ本体102の動作に関する各種設定情報等が格納されている。 The ROM 122 stores control programs to be executed by the camera control unit 124 and various data required for control, and the flash ROM 123 stores various setting information and the like regarding the operation of the camera body 102 such as user setting information and the like. There is.
AF信号処理部114は加算信号分離手段112から出力されたAF用の2つの像信号(A像、B像)に対して相関演算を行い、像ずれ量、信頼性情報(二像一致度、二像急峻度、コントラスト情報、飽和情報、キズ情報等)を算出する。前記の各処理はカメラ制御部124から測距領域指定信号に基づいて各測距領域に対して行う。またAF信号処理部114は、各測距領域ごとに算出した像ずれ量および信頼性情報をカメラ制御部124へ出力する。 The AF signal processing unit 114 performs a correlation operation on the two image signals (image A and image B) for AF output from the addition signal separation unit 112, and generates an image shift amount, reliability information (degree of image coincidence, Two image steepness, contrast information, saturation information, flaw information, etc. are calculated. Each process described above is performed on each distance measurement area based on the distance measurement area designation signal from the camera control unit 124. Further, the AF signal processing unit 114 outputs the image shift amount and the reliability information calculated for each distance measurement area to the camera control unit 124.
欠陥行データベース部115は、撮像素子110において、欠陥行となるA像とB像の行情報が予め設定されていて、欠陥行情報が後述するカメラ制御部124から読み出される。 In the defect row database unit 115, row information of A and B images to be defect rows is set in advance in the imaging element 110, and the defect row information is read from a camera control unit 124 described later.
ここで、本実施形態の撮像素子110からのAF用の2つの像信号(A像、B像)及び画像信号(A+B像)の読出し方法について図4を用いて説明し、AF用の信号が欠陥行になり、記録用の画像は欠陥行にならない事の概念図について図5を用いて説明し本発明における欠陥行の定義を行う。 Here, a method of reading out two image signals (A and B images) for AF and an image signal (A + B image) from the image pickup element 110 of the present embodiment will be described with reference to FIG. A conceptual diagram of the fact that the image is a defect row and the image for recording is not a defect row will be described using FIG. 5 to define the defect row in the present invention.
図4は、本発明の実施形態における撮像素子110の単位画素202を示す回路及び列回路の一例を示す図である。単位画素401(図2の202)は、第1と第2のPD402A、402Bを有する。402Aには転送スイッチ403Aが接続され、他方の402Bには転送スイッチ403Bが接続される。転送スイッチ403A,403Bは、それぞれPD402A、402Bで発生した電荷を共通のFD405に転送する。 FIG. 4 is a view showing an example of a circuit and a column circuit showing the unit pixel 202 of the imaging device 110 in the embodiment of the present invention. The unit pixel 401 (202 in FIG. 2) has first and second PDs 402A and 402B. The transfer switch 403A is connected to 402A, and the transfer switch 403B is connected to the other 402B. The transfer switches 403A and 403B transfer the charges generated by the PDs 402A and 402B to the common FD 405, respectively.
PD402A及び402Bから転送された電荷は、FD405で一時的に保持されるとともに、電圧に変換されてソースフォロワアンプ(SF)406から出力される。407は選択スイッチであり、一行分の画素信号を一括して垂直出力線408に出力する。 The charges transferred from the PDs 402A and 402B are temporarily held by the FD 405, converted into voltages, and output from the source follower amplifier (SF) 406. A selection switch 407 collectively outputs pixel signals of one row to the vertical output line 408.
404はリセットスイッチであり、FD405の電位、及び転送スイッチ403A及び、403Bを介してPD402A、402Bの電位をVDDにリセットする。なお、転送スイッチ403A及び、403Bは、それぞれ転送パルス信号PTXA、PTXBによって制御される。また、リセットスイッチ404、選択スイッチ407はそれぞれ、垂直走査回路に接続されている信号線PRES,PSELによって制御される。409は定電流源である。 A reset switch 404 resets the potential of the FD 405 and the potentials of the PDs 402A and 402B to VDD via the transfer switches 403A and 403B. The transfer switches 403A and 403B are controlled by transfer pulse signals PTXA and PTXB, respectively. The reset switch 404 and the selection switch 407 are respectively controlled by signal lines PRES and PSEL connected to the vertical scanning circuit. 409 is a constant current source.
列回路410の回路構成を説明する。411は画素の信号を増幅するアンプである。413は信号電圧を保持するための容量であり、412は容量413への書き込みを制御するスイッチである。スイッチ412は信号線PSHの制御によりオン、オフされる。414は比較器であり、スロープ電圧発生手段から供給された参照電圧であるVslopeが一方に入力され、他方にアンプ411の出力が入力される。比較器413はアンプ411の出力、すなわち画素からの信号とVslopeを比較し、その大小関係によってローレベル・ハイレベルの2値を取る。具体的には、Vslopeがアンプ411の出力に対して小さい時にはローレベル、大きい時にはハイレベルを取る。415はカウンタであり、CLKに対応してアップカウントを行う。CLKはVslopeの遷移開始と同時に動き出し、カウンタ415は比較器414の出力がハイレベルの時に動き、414の出力がローレベルに反転すると同時にカウントの信号を停止する。 The circuit configuration of the column circuit 410 will be described. An amplifier 411 amplifies the signal of the pixel. A capacitor 413 holds a signal voltage, and a switch 412 controls writing to the capacitor 413. The switch 412 is turned on and off by control of the signal line PSH. Reference numeral 414 denotes a comparator, which receives the reference voltage Vslope supplied from the slope voltage generation means at one end, and the output of the amplifier 411 at the other end. The comparator 413 compares the output of the amplifier 411, that is, the signal from the pixel with Vslope, and takes two values of low level and high level depending on the magnitude relationship. Specifically, it takes a low level when Vslope is smaller than the output of the amplifier 411, and takes a high level when it is larger. A counter 415 counts up in response to CLK. CLK starts simultaneously with the start of the Vslope transition, and the counter 415 operates when the output of the comparator 414 is at high level, and stops the counting signal at the same time when the output of 414 reverses to low level.
単位画素401は2つのPDを有し、撮像面位相差AFを行うモードにおいては、A像信号とA+B像信号を別々に読みだす(詳細は後述)。そこで、列回路410はAD変換されたデジタル信号を保持するメモリを2つ備える。416はPD402Aの信号を(以下S(A)信号)AD変換したデジタル信号が保持されるメモリである。そして、417は402A、及び402Bの信号(以下S(A+B)信号)をAD変換したデジタル信号が保持されるメモリである。メモリ416、417に保持された信号は水平走査回路からの信号によって、水平出力線418を介してデジタル出力処理回路419へ出力される。 The unit pixel 401 has two PDs, and in the mode for performing imaging plane phase difference AF, the A image signal and the A + B image signal are separately read (details will be described later). Therefore, the column circuit 410 includes two memories for holding AD converted digital signals. A memory 416 holds a digital signal obtained by AD-converting the signal of the PD 402A (hereinafter referred to as S (A) signal). A memory 417 holds a digital signal obtained by AD-converting the signals 402A and 402B (hereinafter, S (A + B) signal). The signals held in the memories 416 and 417 are output to the digital output processing circuit 419 through the horizontal output line 418 by the signal from the horizontal scanning circuit.
ここで後述するAF用信号生成範囲設定部127からのA像読み出し信号を受信し、A像読み出しラインである場合はメモリ416からA信号を読み出し、次に417からA+B信号を水平出力線418を介してデジタル処理回路419へ出力する。A像読み出しラインではない場合はメモリ417のみからA+B信号を水平出力線418を介してデジタル処理回路419へ出力する。 Here, an A image read out signal from the AF signal generation range setting unit 127 described later is received, and if it is an A image read out line, the A signal is read out from the memory 416. It outputs to the digital processing circuit 419 via When it is not the A image reading line, the A + B signal is output from the memory 417 alone to the digital processing circuit 419 through the horizontal output line 418.
上記説明した動作でA像信号、B像信号、及び画像信号が得られるが、ここで、製造上の不良で転送パルスPTXAの配線と転送パルスPTXBの配線がショートした場合を考える。この場合、A像信号を読み出す動作において、PD402B信号を読み出してしまうことになる。A+B像信号はもともと転送パルスPTXAと転送パルスPTXBが同時にHになるので影響は出ない。結果として、転送パルスPTXAの配線と転送パルスPTXAの配線がショートした行は、画像信号は通常通り得られるが、A像信号として、画像信号と同じ信号を読み出してしまう。さらに、画像信号からA像信号を減算して求めるB像信号は信号が無くなってしまう。つまり、その行の画像信号は問題ないが、A像信号とB像信号は欠陥という現象が発生する。 Although the image A signal, the image B signal, and the image signal are obtained by the above-described operation, it is assumed here that the wiring of the transfer pulse PTXA and the wiring of the transfer pulse PTXB are shorted due to a manufacturing defect. In this case, the PD 402 B signal is read out in the operation of reading out the A image signal. The A + B image signal has no effect because the transfer pulse PTXA and the transfer pulse PTXB are simultaneously H at the same time. As a result, in the row in which the line of the transfer pulse PTXA and the line of the transfer pulse PTXA are shorted, an image signal can be obtained as usual, but the same signal as the image signal is read out as an A image signal. Further, the B image signal obtained by subtracting the A image signal from the image signal loses the signal. That is, although there is no problem in the image signal of the row, the phenomenon that the A and B image signals are defective occurs.
図5は画像信号とA像信号及びB像信号の信号レベルを模式的に示す図である。ここでは4行4列の配置のうち、3行目のみが欠陥行を示し、正常な場合は画像信号は2、A像信号及びB像信号は共に1であるものとする。画像信号からA像信号を減算したものがB像信号であるので、正常行は画像信号2、A像信号は1なのでB像信号は1となる。欠陥行については、画像信号は2で正常であるが、A像信号は画像信号と同じ信号の2となり、B像信号は0となってしまう。 FIG. 5 is a view schematically showing signal levels of the image signal, the A image signal and the B image signal. Here, in the arrangement of 4 rows and 4 columns, only the third row indicates a defective row, and in the normal case, the image signal is 2 and both the A image signal and the B image signal are 1. Since the B image signal is obtained by subtracting the A image signal from the image signal, the B image signal is 1 since the normal row is the image signal 2 and the A image signal is 1. For a defective row, the image signal is normal at 2 but the A image signal is 2 of the same signal as the image signal, and the B image signal is 0.
本発明における欠陥行の定義は上記のように製造上の不良で転送パルスPTXAと転送パルスPTXBとがショートした行とする。 The definition of a defective row in the present invention is a row in which the transfer pulse PTXA and the transfer pulse PTXB are shorted due to a manufacturing defect as described above.
カメラ制御部124はAF信号処理部114が求めた像ずれ量や信頼性情報や、欠陥行データベース部115から読み出した欠陥行情報や、レンズ101やカメラ102の状態情報を基に、必要に応じてAF信号処理部114の設定を変更したり、AF用信号生成範囲設定部127へ欠陥行情報を出力する。例えば、AF信号処理部114に対して、コントラスト情報に応じてバンドパスフィルタの種類を変更するなどの処理である。本発明の特徴的な設定として、AF用信号生成範囲設定部に対しては、欠陥行情報を出力する。 Based on the image shift amount and the reliability information obtained by the AF signal processing unit 114, the defective line information read out from the defective line database unit 115, and the state information of the lens 101 and the camera 102, the camera control unit 124 is necessary. As a result, the setting of the AF signal processing unit 114 is changed or defective row information is output to the AF signal generation range setting unit 127. For example, processing such as changing the type of band pass filter for the AF signal processing unit 114 according to the contrast information. Defective row information is output to the AF signal generation range setting unit as the characteristic setting of the present invention.
カメラ制御部124は、カメラ本体102内の各機能ブロックと情報をやり取りして制御を行う。カメラ制御部124はカメラ本体102内の処理だけでなく、カメラ操作部125からの入力に応じて、電源のON/OFF、設定の変更、記録の開始、AF制御の開始、記録映像の確認等の、ユーザが操作したさまざまなカメラ機能を実行する。また、カメラ制御部124はレンズユニット101の制御命令・制御情報をレンズ制御部108に送ったり、またレンズユニット101の情報をレンズ制御部108から取得したりする。 The camera control unit 124 performs control by exchanging information with each functional block in the camera body 102. The camera control unit 124 turns on / off the power, changes settings, starts recording, starts AF control, checks recorded images, etc. according to the input from the camera operation unit 125 as well as processing in the camera body 102. Perform various camera functions operated by the user. In addition, the camera control unit 124 sends control instructions and control information of the lens unit 101 to the lens control unit 108, and acquires information of the lens unit 101 from the lens control unit 108.
カメラ制御部124は例えば1つ以上のプログラマブルプロセッサであり、例えばROM122に記憶された制御プログラムを実行することで、レンズユニット101を含めたカメラシステム全体の動作を実現する。 The camera control unit 124 is, for example, one or more programmable processors, and executes the control program stored in the ROM 122, for example, to realize the entire operation of the camera system including the lens unit 101.
カメラ制御部124は、AF信号処理部114から複数の測距領域ごとに取得した相関演算結果の内、特定の1つの測距領域の結果を基に、レンズ制御部108を介してフォーカスレンズ105を駆動する。 The camera control unit 124 controls the focus lens 105 via the lens control unit 108 based on the result of one specific distance measurement area among the correlation calculation results acquired for each of the plurality of distance measurement areas from the AF signal processing unit 114. Drive.
AF用信号生成範囲設定部127は、カメラ制御部124から取得したカメラ102の制御情報や、レンズ101の状態の情報、カメラ制御部124からの欠陥行情報を基に、撮像素子201に対してA像信号を読み出し信号について周期性を保つように撮像素子110へ送信する。 The AF signal generation range setting unit 127 receives the control information of the camera 102 acquired from the camera control unit 124, the information of the state of the lens 101, and the defective line information from the camera control unit 124 with respect to the imaging device 201. The A image signal is transmitted to the image sensor 110 so as to maintain the periodicity of the readout signal.
本実施例では、カメラ操作部125でユーザが設定したAF位置が、図6のように設定された場合、AF領域の全てから常にA+B像、A像を読み出すのでなく、図7に示したように、枠内のA像信号の読み出しを間引いて周期的に読み出す。 In the present embodiment, when the AF position set by the user at the camera operation unit 125 is set as shown in FIG. 6, as shown in FIG. 7, instead of always reading out the A + B image and the A image from all the AF areas. Then, the readout of the A image signal in the frame is thinned out and read out periodically.
上記制御を行うAF用信号生成範囲設定部127の動作に関する詳細はカメラ本体102の制御を説明するフローチャートを用いて後述する。 Details regarding the operation of the AF signal generation range setting unit 127 that performs the control will be described later using a flowchart that describes control of the camera body 102.
次に、カメラ本体102の動作について、図8から図10を用いて説明する。図8はカメラ本体102の撮影処理の手順を示すフローチャートである。S801でカメラ制御部124は、カメラ設定等の初期化処理を行い、S802へ処理を進める。S802でカメラ制御部124は、カメラ本体102の撮影モードが動画撮影モードか静止画撮影モードか判定し、動画撮影モードである場合はS803へ、静止画撮影モードである場合はS804へ処理を進める。 Next, the operation of the camera body 102 will be described using FIG. 8 to FIG. FIG. 8 is a flowchart showing the procedure of shooting processing of the camera body 102. In step S801, the camera control unit 124 performs initialization processing such as camera settings, and advances the processing to step S802. In step S802, the camera control unit 124 determines whether the shooting mode of the camera body 102 is the moving image shooting mode or the still image shooting mode. If the moving image shooting mode is selected, the process proceeds to step S803. If the still image shooting mode is selected, the process proceeds to step S804. .
S803でカメラ制御部124は動画撮影処理を行い、S805へ処理を進める。S802で静止画撮影モードであればS804でカメラ制御部124は静止画撮影処理を行いS805へ処理を進める。 In step S803, the camera control unit 124 performs moving image shooting processing, and the processing proceeds to step S805. If the still image shooting mode is selected in S802, the camera control unit 124 performs still image shooting processing in S804, and the process proceeds to S805.
本発明は、動画および静止画のどちらの撮影モードでも適用可能だが、本実施の形態はS804の静止画撮影処理による制御について図9を基に説明する。本実施の形態では、S803の動画撮影処理の詳細については省略する。S803で動画撮影処理、若しくはS804で静止画撮影処理を行った後に進むS805でカメラ制御部124は、撮影処理が停止されたかどうかを判断し、停止されていない場合はS806へ処理を進め、停止された場合は撮影処理を終了する。撮影処理が停止されたときとは、カメラ操作部125を通じてカメラ本体102の電源が切断されたときや、カメラのユーザ設定処理、撮影画像・動画の確認のための再生処理等、撮影以外の動作が行われたときである。 The present invention can be applied to both moving image and still image shooting modes, but in the present embodiment, control by still image shooting processing in S804 will be described based on FIG. In the present embodiment, the details of the moving image shooting process of S803 will be omitted. In step S805, the camera control unit 124 determines whether the shooting processing has been stopped. If the shooting processing has not been stopped, the processing proceeds to step S806 and is stopped. If it has been, the photographing process is ended. When shooting processing is stopped, operations other than shooting, such as when the power of the camera body 102 is turned off through the camera operation unit 125, user setting processing for the camera, playback processing for checking captured images and videos, etc. Is done.
S805で撮影処理が停止されていないと判断した後に進むS806でカメラ制御部125は、撮影モードが変更されたかどうかを判断し、変更されている場合はS801へ、変更されていない場合はS802へ、処理を戻す。撮影モードが変更されていなければカメラ制御部124は現在の撮影モードの処理を継続して行い、撮影モードが変更された場合はS801で初期化処理を行った上で変更された撮影モードの処理を行う。 In step S806, the camera control unit 125 determines whether the shooting mode has been changed. If it has been changed, the process proceeds to step S801. If it is not changed, the process proceeds to step S802. , Return the process. If the shooting mode has not been changed, the camera control unit 124 continues the processing of the current shooting mode, and if the shooting mode is changed, the processing of the shooting mode is changed after the initialization processing is performed in S801. I do.
次に図8のS804の静止画撮影処理について図9を用いて説明する。S901でカメラ制御部124は、焦点状態検出処理を行いS902へ処理を進める。焦点状態検出処理は、カメラ制御部124、AF信号処理部114、AF用信号生成範囲設定部127による、撮像面位相差AFを行うためのデフォーカス情報及び信頼性情報を取得する処理であり、詳細は図10を用いて後述する。S902でカメラ制御部124は、カメラ操作部125によってAF指示が行われているかどうかを判断し、AF指示が行われている場合はS903へ処理を進め、AF指示が行われていない場合はS904へ処理を進める。 Next, the still image photographing process of S804 in FIG. 8 will be described with reference to FIG. In step S901, the camera control unit 124 performs focus state detection processing, and advances the processing to step S902. The focus state detection process is a process of acquiring defocus information and reliability information for performing imaging plane phase difference AF by the camera control unit 124, the AF signal processing unit 114, and the AF signal generation range setting unit 127, Details will be described later with reference to FIG. In step S902, the camera control unit 124 determines whether an AF instruction has been issued by the camera operation unit 125. If the AF instruction has been issued, the process advances to step S903. If the AF instruction is not issued, the camera control unit 124 performs step S904. Proceed to
本実施形態において、AF指示はシャッターボタンを半押しした場合や、AFを実行するAFONボタンが押された場合を表す。もちろんその他の手段によってAF指示を行う構成でも構わない。S902でAF指示が行われていた場合に進むS903でカメラ制御部124は、AF処理を行い、静止画撮影処理を終了する。 In the present embodiment, the AF instruction indicates the case where the shutter button is pressed halfway or the case where the AF ON button for performing AF is pressed. Of course, the AF instruction may be performed by other means. In step S 903, the camera control unit 124 performs an AF process, and ends the still image shooting process.
S902でAF指示スイッチがオンでない場合に進むS904でカメラ制御部124は、カメラ操作部125によって撮影指示が行われているかどうかを判断し、撮影指示が行われている場合はS905へ処理を進め、行われていない場合はS907へ処理を進める。本実施形態において、撮影指示はシャッターボタンを全押しした場合を表す。もちろんその他の手段によって撮影指示を行う構成でも構わない。 In step S904, the camera control unit 124 determines whether a shooting instruction is issued by the camera operation unit 125. If the shooting instruction is issued, the process proceeds to step S905. If not, the process advances to step S 907. In the present embodiment, the photographing instruction indicates the case where the shutter button is fully pressed. Of course, the configuration may be such that the photographing instruction is issued by other means.
S504で撮影指示が行われていない場合に進むS905でカメラ制御部124は、S903のAF処理によって現在合焦停止状態にあるかどうかを判断し、合焦停止状態でない場合はS903へ処理を進め、合焦停止状態である場合はS906へ処理を進める。S905で合焦停止状態でない場合は、まだ被写体にピントが合っていないと判断し、AF処理を開始または継続することで被写体にピントを合わせる。 In step S905, the camera control unit 124 determines whether it is in the in-focus stop state by the AF processing in step S903. If it is not in the in-focus stop state, the process proceeds to step S903. If the in-focus state is not in effect, the process advances to step S906. If it is determined in step S905 that the subject is not in focus, it is determined that the subject is not in focus, and the subject is brought into focus by starting or continuing AF processing.
S905で合焦停止状態である場合に進むS906でカメラ制御部124は、撮影処理を行い、記録媒体制御部119を介して記録媒体120に撮影画像を保存して、S907へ処理を進める。S904で撮影指示が行われていない場合、またはS906で撮影処理が行われた後に進むS907でカメラ制御部124は合焦停止状態を解除して静止画撮影処理を終了する。撮影が完了した場合や、AF/撮影指示が行われていない場合は、合焦停止状態でない状態に初期化しておく。 In step S906, the camera control unit 124 performs photographing processing, stores the photographed image in the recording medium 120 via the recording medium control unit 119, and advances the process to step S907. If a shooting instruction has not been issued in step S904, or the process advances after the shooting process is performed in step S906, the camera control unit 124 cancels the in-focus stop state in step S907 and ends the still image shooting process. When the shooting is completed or when the AF / shooting instruction has not been issued, the state is reset to the non-focused state.
次に図9のS901の焦点状態検出処理について図10を用いて説明する。まず、S1001でカメラ制御部124は、カメラ本体102、またはレンズ101が持つ、AFに使用するパラメータ情報を取得し、S1002へ処理を進める。撮影パラメータとは、レンズ101内の絞り104の絞り情報や、カメラ本体102内の撮像素子110にかかっているセンサゲインなどをはじめとした情報であり、本実施形態の構成に依らず、カメラの構成に応じて必要な情報を適宜取得して良い。このカメラパラメータに基づいて、AF信号処理部114でのAF信号生成に係る処理や、AF用信号生成範囲設定部127での処理に適用できるように、カメラ制御部124は情報を提供する。 Next, the focus state detection process of S901 in FIG. 9 will be described using FIG. First, in step S1001, the camera control unit 124 acquires parameter information used for AF that the camera body 102 or the lens 101 has, and the process proceeds to step S1002. The imaging parameters are information including the diaphragm information of the diaphragm 104 in the lens 101, the sensor gain applied to the imaging element 110 in the camera body 102, and the like, and the camera does not depend on the configuration of the present embodiment. Necessary information may be acquired appropriately according to the configuration. Based on the camera parameters, the camera control unit 124 provides information so that it can be applied to the process related to AF signal generation in the AF signal processing unit 114 and the process in the AF signal generation range setting unit 127.
次に、S1002でカメラ制御部124は、撮像画面の焦点検出範囲内から、焦点状態検出を行う測距領域位置の設定/配置を行う。設定/配置の方法は、被写体検出が可能な構成であれば例えばユーザの設定した領域を測距領域位置として設定したりしてもよい。次に、S1003でAF用信号生成範囲設定部127は、カメラ制御部124が持つ欠陥行情報に基づいて、撮像画面内から撮像面位相差検出方式のAFに用いる二像信号を生成する範囲を決定してS1004へ処理を進める。 Next, in step S1002, the camera control unit 124 performs setting / arrangement of a ranging area position where the focus state detection is performed from within the focus detection range of the imaging screen. The method of setting / arranging may be, for example, setting an area set by the user as the distance measuring area position as long as the configuration allows object detection. Next, in step S1003, the AF signal generation range setting unit 127 generates a range for generating two image signals used for AF of the imaging surface phase difference detection method from within the imaging screen based on the defective row information held by the camera control unit 124. It decides and advances processing to S1004.
この時、S1001で設定した制御パラメータや、S1002で設定した測距領域位置や、焦点状態検出処理で演算したその他AF制御情報などに基づいて、二像信号を生成する範囲を適している状態に適宜変更するように制御する。 At this time, based on the control parameters set in S1001, the ranging area position set in S1002, the other AF control information calculated in the focus state detection process, etc., the range for generating the two-image signal is suitable. Control to change as appropriate.
また、二像信号を生成する範囲を設定するとは、図2のような撮像素子において、A像信号を生成する走査ラインをどの範囲にするかを設定するということである。二像信号を生成しないラインでは、A+B像信号として1つの信号のみを生成する。二像信号を生成する範囲を欠陥行でない行に制御することで、焦点検出の為に最適なA像信号とB像信号を取得する事ができる。 Further, setting the range for generating the two-image signal means setting, in the imaging device as shown in FIG. 2, which range the scanning line for generating the A-image signal is to be set. In a line which does not generate two image signals, only one signal is generated as an A + B image signal. By controlling the range in which the two-image signal is generated to a non-defective row, it is possible to acquire an A-image signal and a B-image signal optimal for focus detection.
次に、S1004でAF信号処理部114は、S1003で設定した像データ生成範囲に含まれる画素からAF用の1対の像信号(A像信号、B像信号)を取得する。次に、S1005でAF信号処理部114は、取得した像信号間の相関量を算出する。相関量の算出は、S1003で設定した像データ生成範囲内の各走査ラインにおいて、測距領域内に対してそれぞれ行い、後段のS1004からS1009までの処理も同様に測距領域内の各走査ラインに対してそれぞれ行う。続いて、S1006でAF信号処理部114はS1005より算出した相関量から相関変化量を算出する。 Next, in S1004, the AF signal processing unit 114 acquires a pair of image signals (A image signal and B image signal) for AF from the pixels included in the image data generation range set in S1003. Next, in S1005, the AF signal processing unit 114 calculates the amount of correlation between the acquired image signals. The correlation amount is calculated for each scanning line in the image data generation range set in S1003 within the ranging area, and the processing from S1004 to S1009 in the subsequent stage is similarly performed for each scanning line in the ranging area. Do for each Subsequently, in S1006, the AF signal processing unit 114 calculates the amount of change in correlation from the amount of correlation calculated in S1005.
そしてS1007でAF信号処理部114は相関変化量から像ずれ量を算出する。S1008でAF信号処理部114は、像ずれ量がどれだけ信頼できるのかを表す信頼性を算出する。そして、S1009でAF信号処理部114はS1008で算出した像ずれ量を、換算係数を掛けることでデフォーカス量に変換し、焦点状態検出処理を終了する。 Then, in S1007, the AF signal processing unit 114 calculates the image shift amount from the correlation change amount. In S1008, the AF signal processing unit 114 calculates the reliability indicating how reliable the image shift amount is. Then, in S1009, the AF signal processing unit 114 converts the image shift amount calculated in S1008 into a defocus amount by multiplying the conversion coefficient, and ends the focus state detection processing.
次に、図11から図14を用いて図10で説明した焦点状態検出処理について詳細に説明する。図11は焦点状態検出処理で取り扱う測距領域の一例を模式的に示した図であり、撮像素子201の画素アレイにおける測距領域1102の例を示している。シフト領域1103は、相関演算に必要な領域である。従って、測距領域1102とシフト領域1103とを合わせた領域1104が相関演算に必要な画素領域である。図中のp、q、s、tはそれぞれx軸方向の座標を表し、pおよびqは画素領域1104の始点及び終点のx座標を、sおよびtは測距領域1102の始点および終点のx座標を表す。 Next, the focus state detection processing described in FIG. 10 will be described in detail using FIGS. 11 to 14. FIG. 11 is a view schematically showing an example of the distance measurement area handled in the focus state detection process, and shows an example of the distance measurement area 1102 in the pixel array of the imaging device 201. The shift area 1103 is an area necessary for the correlation operation. Therefore, an area 1104 obtained by combining the distance measurement area 1102 and the shift area 1103 is a pixel area required for the correlation calculation. In the figure, p, q, s, and t respectively represent coordinates in the x-axis direction, p and q are x coordinates of the start point and end point of the pixel area 1104, and s and t are x points of the start point and end point of the distance measurement area 1102. Represents coordinates.
図12は図11で設定した測距領域1102に含まれる画素から取得したAF用の像信号の例を示している。実線1201が像信号A、破線1202が像信号Bである。図12(a)は、シフト前の像信号の例を示している。図12(b)および(c)は、図12(a)のシフト前の像波形に対しプラス方向およびマイナス方向にシフトした状態を示している。相関量を算出する際には、像信号A1201および像信号B1202の両方を、矢印の方向に1ビットずつシフトする。続いて相関量CORの算出法について説明する。 FIG. 12 shows an example of an image signal for AF acquired from the pixels included in the distance measurement area 1102 set in FIG. The solid line 1201 is the image signal A, and the broken line 1202 is the image signal B. FIG. 12 (a) shows an example of the image signal before shifting. FIGS. 12 (b) and 12 (c) show a state in which the image waveform before the shift in FIG. 12 (a) is shifted in the positive and negative directions. When calculating the amount of correlation, both the image signal A 1201 and the image signal B 1202 are shifted by one bit in the direction of the arrow. Subsequently, a method of calculating the correlation amount COR will be described.
まず、図12(b)および(c)に示したように、像信号A1201と像信号B1202のそれぞれを1ビットずつシフトし、その時の像信号Aと像信号Bの差の絶対値の和を算出する。この時、シフト量をiで表し、最小シフト量は図12中のp−s、最大シフト量は図12中のq−tである。またxは測距領域1102の開始座標、yは測距領域1202の終了座標である。これらを用い、焦点検出領域における相関量CORは以下の式(1)によって算出することができる。 First, as shown in FIGS. 12B and 12C, each of the image signal A 1201 and the image signal B 1202 is shifted by 1 bit, and the sum of the absolute value of the difference between the image signal A and the image signal B at that time is calculate. At this time, the shift amount is represented by i, the minimum shift amount is ps in FIG. 12, and the maximum shift amount is qt in FIG. Also, x is a start coordinate of the distance measurement area 1102, and y is an end coordinate of the distance measurement area 1202. Using these, the correlation amount COR in the focus detection area can be calculated by the following equation (1).
図13(a)はシフト量と相関量との関係例を示した図である。横軸はシフト量を示し、縦軸は相関量を示す。相関量波形1301における極値付近1302、1303のうち、相関量が小さい方ほど、像信号Aと像信号Bの一致度が高い。続いて相関変化量ΔCORの算出法について説明する。 FIG. 13A is a diagram showing an example of the relationship between the shift amount and the correlation amount. The horizontal axis indicates the shift amount, and the vertical axis indicates the correlation amount. The degree of coincidence between the image signal A and the image signal B is higher as the correlation amount is smaller among the extreme values 1302 and 1303 in the correlation amount waveform 1301. Subsequently, a method of calculating the correlation change amount ΔCOR will be described.
まず、図13(a)の相関量波形から、1シフト飛ばしの相関量の差から相関変化量を算出する。シフト量をiで表し、最小シフト量は図8中のp−s、最大シフト量は図8中のq−tである。これらを用い、相関変化量ΔCORは以下の式(2)によって算出することができる。 First, from the correlation amount waveform of FIG. 13 (a), the correlation change amount is calculated from the difference between the correlation amounts of one shift skipping. The shift amount is represented by i, the minimum shift amount is p-s in FIG. 8, and the maximum shift amount is q-t in FIG. Using these, the correlation change amount ΔCOR can be calculated by the following equation (2).
図14(a)はシフト量と相関変化量ΔCORの関係例を示した図である。横軸はシフト量を示し、縦軸は相関変化量を示す。相関変化量波形1401で、1402、1403は相関変化量がプラスからマイナスになる周辺である。相関変化量が0となる状態ゼロクロスと呼び、像信号間の一致度が最も高く、ゼロクロス時のシフト量が像ずれ量となる。
図14(b)は図14(a)の1402の部分を拡大したもので、1404は相関変化量波形1401の一部分である。図10(b)を用いて像ずれ量PRDの算出法について説明する。
FIG. 14A shows an example of the relationship between the shift amount and the correlation change amount ΔCOR. The horizontal axis indicates the shift amount, and the vertical axis indicates the correlation change amount. In the correlation change amount waveform 1401, reference numerals 1402 and 1403 denote areas around which the correlation change amount changes from plus to minus. It is called a state zero crossing where the amount of change in correlation is zero, the degree of coincidence between image signals is the highest, and the amount of shift at the time of zero crossing is the amount of image shift.
FIG. 14B is an enlarged view of a portion 1402 of FIG. 14A, and 1404 is a part of the correlation change amount waveform 1401. The method of calculating the image shift amount PRD will be described with reference to FIG.
ここで、ゼロクロス時のシフト量(k−1+α)は、整数部分β(=k−1)と小数部分αに分けられる。小数部分αは、図中の三角形ABCと三角形ADEの相似の関係から、以下の式(3)によって算出することができる。 Here, the shift amount (k-1 + α) at the time of zero crossing is divided into an integer part β (= k-1) and a decimal part α. The fractional part α can be calculated by the following equation (3) from the similarity relationship between the triangle ABC and the triangle ADE in the figure.
続いて整数部分βは、図14(b)中より以下の式(4)によって算出することができる。 Subsequently, the integer part β can be calculated by the following equation (4) from FIG. 14 (b).
β=k−1 (4)
αとβの和から像ずれ量PRDを算出することができる。
β = k−1 (4)
The image shift amount PRD can be calculated from the sum of α and β.
また図14(a)のようにゼロクロスとなるシフト量が複数存在する場合は、ゼロクロスでの相関量変化の急峻性が大きいところを第1のゼロクロスとする。この急峻性はAFのし易さを示す指標で、値が大きいほど精度良くAFし易い点であることを示す。急峻性maxderは以下の式(5)によって算出することができる。 Further, as shown in FIG. 14A, when there are a plurality of shift amounts at which the zero crossing occurs, the place where the steepness of the change in the correlation amount at the zero crossing is large is taken as the first zero crossing. The steepness is an index indicating the ease of AF, and indicates that the larger the value, the easier the AF is. The steepness maxder can be calculated by the following equation (5).
以上のように、ゼロクロスが複数存在する場合は、急峻性によって第1のゼロクロスを決定する。続いて像ずれ量の信頼性の算出法について説明する。信頼性は、上述した急峻性や、像信号A、Bの一致度fnclvl(以下、2像一致度と呼ぶ)によって定義することができる。2像一致度は像ずれ量の精度を表す指標で、本実施形態における相関演算手法では、値が小さいほど精度が良い。 As described above, when there are a plurality of zero crossings, the first zero crossing is determined by the steepness. Subsequently, a method of calculating the reliability of the image shift amount will be described. The reliability can be defined by the above-described sharpness and the degree of coincidence fnclvl of the image signals A and B (hereinafter referred to as the degree of coincidence between two images). The degree of coincidence between two images is an index indicating the accuracy of the image shift amount, and in the correlation calculation method in the present embodiment, the smaller the value, the better the accuracy.
図13(b)は図13(a)の1302の部分を拡大したもので、1304が相関量波形1301の一部分である。図13(b)を用いて急峻性と2像一致度の算出法について説明する。2像一致度fnclvlは以下の式(6)によって算出できる。 FIG. 13B is an enlarged view of a portion 1302 of FIG. 13A, in which 1304 is a part of the correlation amount waveform 1301. The calculation method of the sharpness and the degree of coincidence between two images will be described with reference to FIG. The two-image coincidence degree fnclvl can be calculated by the following equation (6).
次に、本発明の特徴的な部分である図1のカメラ制御部124と、AF用信号生成範囲設定部127について、図15、図16を用いて説明する。図16(a)、(b)はA+B像とA像を撮像素子110から読み出す領域を図示したものである。ここでは全体で126ライン分のA+B像を読むのに対して加えてA像を読むライン数を30ライン読む場合を図示している。 Next, the camera control unit 124 of FIG. 1 and the AF signal generation range setting unit 127, which are characteristic parts of the present invention, will be described with reference to FIGS. FIGS. 16A and 16B illustrate an area in which the A + B image and the A image are read out from the imaging element 110. FIG. Here, in addition to reading the A + B image for 126 lines in total, the case of reading 30 lines for reading the A image is illustrated.
図16(a)は撮像装置の初期設定であり、A像ラインの読出し開始位置が7行目からで、周期定期に8ラインに対して2ラインA像を読む(A像間隔6ライン)構成である。この時、例えば、31行目、35行目に欠陥行があると、前述した焦点状態検出処理を行う際に、31行目を使用して焦点状態検出処理を行うと焦点状態検出の精度が低下してしまう。 FIG. 16A shows the initial setting of the image pickup apparatus, in which the readout start position of the image A line is from the seventh line, and a 2-line A image is read for 8 lines periodically (A-image interval 6 lines) It is. At this time, for example, if there is a defect line on the 31st and 35th lines, when performing the focus state detection process using the 31st line when performing the above-mentioned focus state detection process, the focus state detection accuracy is improved. It will decrease.
また、欠陥行である31行目を使用せずに焦点状態検出処理を行った場合でも、焦点状態検出用の行が減ってしまうため焦点状態検出の精度が低下してしまう。従って、カメラ制御部124は、図15に示す欠陥行情報として31ライン目、35行目という欠陥行情報を読み出して、AF用信号生成範囲設定部127出力する。 In addition, even when the focus state detection process is performed without using the 31st line which is a defective line, the number of lines for focus state detection decreases, so that the accuracy of the focus state detection decreases. Therefore, the camera control unit 124 reads the defective line information on the 31st and 35th lines as the defective line information shown in FIG. 15 and outputs the AF signal generation range setting unit 127.
図16(b)では、AF用信号生成範囲設定部127には欠陥行情報として31ライン目、35行目が入力されA像ラインに欠陥行が当たらないようにA像信号を読み出し信号を撮像素子110に送信する。具体的には、A像ラインの読出し信号の開始位置を9行目からとして、周期定期に8ラインに対して2ラインA像を読む(A像間隔6ライン)構成とする事で欠陥行をさける事ができる。 In FIG. 16B, the 31st and 35th lines are input as defect row information to the AF signal generation range setting unit 127, and the image signal is read out so that the defect row does not hit the A image line. Transmit to element 110. Specifically, with the start position of the readout signal of the A image line starting from the ninth row, a 2-row A image is read for 8 lines periodically (A image interval 6 lines) to form a defective row. You can get rid of it.
以上説明したように、本実施形態の撮像装置は、撮像面位相差AFを行うための二像信号を生成する走査ラインの読み出し開始位置を、欠陥行情報に応じて変更する。その為、撮像面位相差方式を用いた焦点検出において、撮像素子の歩留まりを下げる事なく、好適な焦点検出により好適な撮影画像の実現ができる。なお、本発明の範囲は、本実施形態で例示した構成に限らず、発明の意図に沿った内容であれば他の構成であってもよい。 As described above, the imaging device according to the present embodiment changes the reading start position of the scanning line that generates the two-image signal for performing the imaging plane phase difference AF, according to the defective row information. Therefore, in focus detection using the imaging plane phase difference method, a suitable captured image can be realized by suitable focus detection without lowering the yield of the imaging device. The scope of the present invention is not limited to the configuration exemplified in the present embodiment, and any other configuration may be adopted as long as the content of the present invention is achieved.
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。 As mentioned above, although the preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.
本発明の第2の実施形態を例に図16(a)、図17、図18を用いて説明する。なお、以下において、同一構成要素には同じ記号および符号を付しその説明を省略する。 A second embodiment of the present invention will be described using FIG. 16 (a), FIG. 17 and FIG. 18 as an example. In the following, the same symbols are given to the same components, and the description thereof is omitted.
図17に示すAF用信号生成範囲設定部1727は、カメラ制御部124から取得したカメラ102の制御情報や、レンズ101の状態の情報、カメラ制御部124からの欠陥行情報を基に、撮像素子201に対してA像信号を読み出し信号について周期性を保たずに欠陥行を避けるように撮像素子110へ送信する。 The AF signal generation range setting unit 1727 shown in FIG. 17 is an imaging device based on control information of the camera 102 acquired from the camera control unit 124, information on the state of the lens 101, and defective row information from the camera control unit 124. In step S201, the A image signal is transmitted to the image sensor 110 so as to avoid a defective line without maintaining periodicity in the readout signal.
図16(a)は撮像装置の初期設定であり、A像ラインの読出し開始位置が7行目からで、周期定期に8ラインに対して2ラインA像を読む(A像間隔6ライン)構成である。この時、例えば、31行目、35行目に欠陥行があると、前述した焦点状態検出処理を行う際に、31行目を使用して焦点状態検出処理を行うと焦点状態検出の精度が低下してしまう。また、欠陥行である31行目を使用せずに焦点状態検出処理を行った場合でも、焦点状態検出用の行が減ってしまうため焦点状態検出の精度が低下してしまう。従って、カメラ制御部124は、図18に示す欠陥行情報として31ライン目、35行目という欠陥行情報を読み出して、AF用信号生成範囲設定部127出力する。 FIG. 16A shows the initial setting of the image pickup apparatus, in which the readout start position of the image A line is from the seventh line, and a 2-line A image is read for 8 lines periodically (A-image interval 6 lines) It is. At this time, for example, if there is a defect line on the 31st and 35th lines, when performing the focus state detection process using the 31st line when performing the above-mentioned focus state detection process, the focus state detection accuracy is improved. It will decrease. In addition, even when the focus state detection process is performed without using the 31st line which is a defective line, the number of lines for focus state detection decreases, so that the accuracy of the focus state detection decreases. Therefore, the camera control unit 124 reads the defective line information on the 31st and 35th lines as the defective line information shown in FIG. 18 and outputs the AF signal generation range setting unit 127.
図18に示すように、AF用信号生成範囲設定部127には欠陥行情報として31ライン目、35行目が入力される。AF用信号生成範囲設定部127はA像ラインに欠陥行が当たらないようにA像信号を読み出し信号を撮像素子110に送信する。 As shown in FIG. 18, the 31st and 35th lines are input to the AF signal generation range setting unit 127 as defective line information. The AF signal generation range setting unit 127 reads out the A image signal and transmits a signal to the imaging element 110 so that the defective line does not hit the A image line.
具体的には、A像ラインの読出し信号の開始位置は7行目のままで、周期定期に8ラインに対して2ラインA像を読む(A像間隔6ライン)構成とするが、欠陥行である31行目、32行目を避ける為に周期性を保たずに33行目、34行目をA像ラインとして読み出すように撮像素子110を制御する事で欠陥行を避ける事ができる。 Specifically, while the start position of the readout signal of the A image line remains on the seventh row, a 2-line A image is read for 8 lines periodically (A image interval 6 lines), but defective rows In order to avoid the 31st and 32nd lines, defective lines can be avoided by controlling the image sensor 110 so that the 33rd and 34th lines are read as the A image line without maintaining the periodicity. .
以上説明したように、本実施形態の撮像装置は、撮像面位相差AFを行うための二像信号を生成する走査ラインの読み出しにおいて、欠陥行情報に応じて欠陥行を避けるように変更する。その為、撮像面位相差方式を用いた焦点検出において、撮像素子の歩留まりを下げる事なく、好適な焦点検出により好適な撮影画像の実現ができる。なお、本発明の範囲は、本実施形態で例示した構成に限らず、発明の意図に沿った内容であれば他の構成であってもよい。 As described above, the imaging device according to the present embodiment changes the reading of the scanning line for generating the two-image signal for performing imaging plane phase difference AF so as to avoid the defective row according to the defective row information. Therefore, in focus detection using the imaging plane phase difference method, a suitable captured image can be realized by suitable focus detection without lowering the yield of the imaging device. The scope of the present invention is not limited to the configuration exemplified in the present embodiment, and any other configuration may be adopted as long as the content of the present invention is achieved.
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。 As mentioned above, although the preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.
101 レンズユニット、102 カメラ本体、103 固定レンズ、
104 絞り、105 フォーカスレンズ、106 絞り駆動部、
107 フォーカスレンズ駆動部、108 レンズ制御部、109 レンズ操作部、
110 撮像素子、111 CDS/AGC/AD、112 加算信号分離手段、
113 画像処理部、114 AF信号処理部、115 欠陥行データベース部、
116 バス、117 表示制御部、118 表示部、119 記録媒体制御部、
120 記録媒体、121 SDRAM、122 ROM、
123 フラッシュROM、124 カメラ制御部、125 カメラ操作部、
126 タイミングジェネレータ、127 AF用信号生成範囲設定部、
201 マイクロレンズ、202 単位画素、301,302 射出瞳
101 lens unit, 102 camera body, 103 fixed lens,
104 aperture, 105 focus lens, 106 aperture drive unit,
107 focus lens drive unit, 108 lens control unit, 109 lens operation unit,
110 imaging device, 111 CDS / AGC / AD, 112 addition signal separating means,
113 image processing unit 114 AF signal processing unit 115 defect row database unit
116 bus, 117 display control unit, 118 display unit, 119 recording medium control unit,
120 recording medium, 121 SDRAM, 122 ROM,
123 flash ROM, 124 camera control unit, 125 camera operation unit,
126 timing generator, 127 AF signal generation range setting unit,
201 micro lens, 202 unit pixels, 301, 302 exit pupils
Claims (3)
前記複数の光電変換部から少なくとも2つ以上に分けて画素信号を読み出す第一の駆動と、
前記複数の光電変換部から一度に画素信号を読み出す第二の駆動を備え、
前記第一の駆動を任意の行に設定可能な撮像素子と、
前記撮像素子の瞳分割信号の欠陥行情報を予め記憶した欠陥行データベース手段と、
前記欠陥行データベース手段に記憶された欠陥行に対しては、前記第一の駆動を行わない読み出し制御を行う読み出し制御手段と、
を有することを特徴とする撮像装置。 It has a plurality of photoelectric conversion units in one microlens,
A first drive for reading out pixel signals by dividing into at least two or more from the plurality of photoelectric conversion units;
A second drive for reading out pixel signals at one time from the plurality of photoelectric conversion units,
An imaging element capable of setting the first drive to an arbitrary row;
Defect row database means storing in advance defect row information of pupil division signals of the image pickup element;
A read control unit that performs read control not to perform the first driving on the defective rows stored in the defective row database unit;
An imaging apparatus characterized by having:
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017080135A JP2018182549A (en) | 2017-04-14 | 2017-04-14 | Imaging device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017080135A JP2018182549A (en) | 2017-04-14 | 2017-04-14 | Imaging device |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2018182549A true JP2018182549A (en) | 2018-11-15 |
Family
ID=64277270
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2017080135A Pending JP2018182549A (en) | 2017-04-14 | 2017-04-14 | Imaging device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2018182549A (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2020066230A1 (en) | 2018-09-27 | 2020-04-02 | 大王製紙株式会社 | Packaging sheet and packaged absorbent article |
-
2017
- 2017-04-14 JP JP2017080135A patent/JP2018182549A/en active Pending
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2020066230A1 (en) | 2018-09-27 | 2020-04-02 | 大王製紙株式会社 | Packaging sheet and packaged absorbent article |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5778931B2 (en) | Imaging apparatus and control method thereof | |
| JP6041495B2 (en) | Imaging apparatus and defective pixel determination method | |
| JP6039165B2 (en) | Imaging device and imaging apparatus | |
| JP5850680B2 (en) | Imaging apparatus and control method thereof | |
| JP6099904B2 (en) | Imaging device | |
| JP5946421B2 (en) | Imaging apparatus and control method thereof | |
| JP6351231B2 (en) | IMAGING DEVICE, IMAGING SYSTEM, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM | |
| JP6381274B2 (en) | Imaging device, control method thereof, and control program | |
| CN104641276B (en) | Camera head and signal processing method | |
| JP2015056710A (en) | Imaging apparatus, control method therefor, program, and storage medium | |
| JP2010288083A (en) | Imaging device | |
| JP2019106634A (en) | Imaging element and imaging device | |
| JP5826901B2 (en) | Imaging apparatus and optical axis position calculation method | |
| JP5701942B2 (en) | Imaging apparatus, camera system, and image processing method | |
| JP6465704B2 (en) | Imaging apparatus and control method thereof | |
| JP6748477B2 (en) | Imaging device, control method thereof, program, and storage medium | |
| JP6559021B2 (en) | Imaging apparatus and control program therefor | |
| JP6759088B2 (en) | Imaging device and its control method and program | |
| JP6701269B2 (en) | Image processing apparatus and image processing method | |
| JP2018182549A (en) | Imaging device | |
| JP2017216649A (en) | Imaging device, imaging device, and imaging signal processing method | |
| JP6883082B2 (en) | Imaging device and its control method | |
| US10827111B2 (en) | Imaging apparatus having settable focus detection areas and method for controlling the same | |
| JP7079161B2 (en) | Imaging device and its control method | |
| US20180020150A1 (en) | Control apparatus, image capturing apparatus, control method, and storage medium |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20191125 |