[go: up one dir, main page]

JP2010074584A - Imaging apparatus and imaging method - Google Patents

Imaging apparatus and imaging method Download PDF

Info

Publication number
JP2010074584A
JP2010074584A JP2008240336A JP2008240336A JP2010074584A JP 2010074584 A JP2010074584 A JP 2010074584A JP 2008240336 A JP2008240336 A JP 2008240336A JP 2008240336 A JP2008240336 A JP 2008240336A JP 2010074584 A JP2010074584 A JP 2010074584A
Authority
JP
Japan
Prior art keywords
captured image
detection
signal
detection signal
image signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008240336A
Other languages
Japanese (ja)
Inventor
Nozomi Ozaki
望 尾崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2008240336A priority Critical patent/JP2010074584A/en
Publication of JP2010074584A publication Critical patent/JP2010074584A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Transforming Light Signals Into Electric Signals (AREA)
  • Studio Devices (AREA)
  • Solid State Image Pick-Up Elements (AREA)

Abstract

【課題】回路規模を大幅に増加させることなく、撮像画像内の被写体の動きを精度良く検出する。
【解決手段】撮像部21では、外部からの光を画素単位で光電変換し、その結果得られた電荷を画素単位で蓄積する。撮像部21は、1フレームの撮像時間内に、蓄積されている電荷に対応する信号を直後に撮像される撮像画像内の被写体の動きを検出するための検出信号として、複数回非破壊で読み出す。また、撮像部21は、1フレームの撮像時間ごとに、蓄積されている電荷に対応する信号を、撮像画像信号として読み出す。本発明は、例えば、撮像装置に適用することができる。
【選択図】図1
An object of the present invention is to accurately detect a movement of a subject in a captured image without greatly increasing the circuit scale.
An imaging unit 21 photoelectrically converts light from the outside in units of pixels, and accumulates electric charges obtained as a result in units of pixels. The imaging unit 21 reads a signal corresponding to the accumulated electric charge as a detection signal for detecting a motion of a subject in a captured image that is captured immediately after the imaging time of one frame, non-destructively a plurality of times. . In addition, the imaging unit 21 reads out a signal corresponding to the accumulated charge as a captured image signal for each imaging time of one frame. The present invention can be applied to, for example, an imaging apparatus.
[Selection] Figure 1

Description

本発明は、撮像装置および撮像方法に関し、特に、回路規模を大幅に増加させることなく、撮像画像内の被写体の動きを精度良く検出することができるようにした撮像装置および撮像方法に関する。   The present invention relates to an image pickup apparatus and an image pickup method, and more particularly to an image pickup apparatus and an image pickup method capable of accurately detecting the movement of a subject in a picked-up image without greatly increasing the circuit scale.

デジタルカメラ、ビデオカメラ、携帯電話に搭載されるカメラ、監視カメラ等のカメラには、CCD(Charge Coupled Device)イメージセンサ、またはCMOS(Coplementary Metal-Oxide Semiconductor)イメージセンサが撮像素子として使用される。   A CCD (Charge Coupled Device) image sensor or a CMOS (Coplementary Metal-Oxide Semiconductor) image sensor is used as an imaging device for cameras such as digital cameras, video cameras, cameras mounted on mobile phones, and surveillance cameras.

近年、これらのイメージセンサの製造工程には、最先端の微細化プロセスが用いられるようになってきている。この微細化プロセスにより、イメージセンサそのものを小型化してコストダウンを行ったり、撮像素子の画素数を増大させたりすることができる。   In recent years, a state-of-the-art miniaturization process has been used in the manufacturing process of these image sensors. By this miniaturization process, the image sensor itself can be reduced in size and the cost can be reduced, or the number of pixels of the image sensor can be increased.

しかしながら、画素サイズが縮小化するため、撮影用の光に対する感度が低下する。従って、暗い場所での撮影では、イメージセンサの電荷蓄積時間内のカメラの動きによるぼけや被写体の動きによるぼけ(以下、動きぼけという)が顕著に現れる。   However, since the pixel size is reduced, the sensitivity to light for photographing is lowered. Therefore, when shooting in a dark place, blur due to camera movement or subject movement (hereinafter referred to as motion blur) within the charge accumulation time of the image sensor appears prominently.

例えば、デジタルスチルカメラでは、夜景や暗い室内での長時間露光撮影の際、動きぼけが顕著に現れ、撮像画像が動きぼけによって大きく劣化する。デジタルスチルカメラ自体の大きさや重さにも依存するが、露光時間が1/15秒以上では、この動きぼけが目立つ。   For example, in a digital still camera, motion blur appears prominently during long-exposure shooting in a night view or in a dark room, and the captured image is greatly degraded by motion blur. Although it depends on the size and weight of the digital still camera itself, this motion blur is noticeable when the exposure time is 1/15 second or longer.

また、望遠レンズを使用して遠景を撮影する場合にも、画素サイズの縮小化により、カメラの微細な動きが撮像面では大きな動きとして現れ、動きぼけが顕著になる。   Also, when shooting a distant view using a telephoto lens, due to the reduction in pixel size, a fine camera movement appears as a large movement on the imaging surface, and the motion blur becomes noticeable.

さらに、画素サイズの縮小化によって、これまで通常の撮影では問題とならなかったデジタルスチルカメラの些細な動きによっても、イメージセンサの撮像面で結像された像が、周辺画素に移動することになり、動きぼけが顕著に現れる。その結果、撮像画像の解像度や鮮鋭度が低下する。また、高画素数化のために画素サイズの縮小化が進むと、動きぼけはさらに顕著になり、折角の高画素数化による効果が半減することになる。   Furthermore, due to the reduction in pixel size, the image formed on the imaging surface of the image sensor moves to the surrounding pixels even if the digital still camera moves insignificant, which has not been a problem in normal shooting. And motion blur appears prominently. As a result, the resolution and sharpness of the captured image are reduced. In addition, when the pixel size is reduced to increase the number of pixels, the motion blur becomes more remarkable, and the effect of increasing the number of pixels at the folding angle is halved.

また、ビデオカメラにおいても、フレーム間のビデオカメラの動きなどにより動きぼけが発生する。従って、フルHD(High Definition)から、2Kx4Kや4Kx8Kに高画素数化が進むと、デジタルスチルカメラの場合と同様に、些細なビデオカメラの動きによる周辺画素への影響を無視できなくなってくる。   Also in the video camera, motion blur occurs due to the motion of the video camera between frames. Therefore, when the number of pixels is increased from full HD (High Definition) to 2K × 4K or 4K × 8K, the influence on the peripheral pixels due to the slight movement of the video camera cannot be ignored as in the case of the digital still camera.

以上のように、画素サイズの縮小化によって、動きぼけは、撮影条件によらず顕著に現れる。従って、動きぼけの防止および削減は、画素の微細化が進む際には必須となる。   As described above, due to the reduction in the pixel size, the motion blur appears remarkably regardless of the shooting conditions. Therefore, prevention and reduction of motion blur are indispensable when pixel miniaturization proceeds.

ところで、動きぼけを削減する方法は、従来から広く検討されている。   Incidentally, methods for reducing motion blur have been widely studied.

例えば、第1の方法として、光学的、メカ的にカメラによる動きの補正を行う方法がある。この方法では、カメラは、例えば、加速度センサや速度サンサなどの動きセンサと可動部を有するレンズ等の光学系から構成される。そして、カメラは、動きセンサにより検出されたカメラの不用な動きにしたがって、光学系を移動させることにより、撮像面での被写体としての静止物体の動きを補正する。   For example, as a first method, there is a method of correcting a motion by a camera optically and mechanically. In this method, the camera is composed of, for example, a motion sensor such as an acceleration sensor or a velocity sensor and an optical system such as a lens having a movable part. Then, the camera corrects the motion of the stationary object as the subject on the imaging surface by moving the optical system in accordance with the unnecessary motion of the camera detected by the motion sensor.

この第1の方法では、カメラが適正に動作すれば優れた性能を発揮するが、動き検出のための動きセンサや新たな光学部品が必要であり、小型化やコストダウンには適してない。また、光学的、メカ的な動作のため、高速な動きへの追従性能などが良くない。   This first method exhibits excellent performance if the camera operates properly, but requires a motion sensor and new optical components for motion detection, and is not suitable for downsizing and cost reduction. Also, due to optical and mechanical operations, the performance of following high-speed movement is not good.

また、第2の方法として、イメージセンサから読み出された1フレーム分の画像データの解析により、カメラの動きを分析して動きぼけを推定し、画像処理的に動きぼけの削減を行う方法がある。この第2の方法では、信号処理だけで動きぼけの削減を行うことができるため、容易に実現可能である。   As a second method, there is a method of analyzing motion of a camera to estimate motion blur by analyzing image data for one frame read from the image sensor, and reducing motion blur in terms of image processing. is there. This second method can be easily realized because motion blur can be reduced only by signal processing.

しかしながら、1枚のフレームの画像データからカメラの本来の動きを正確に推定することは不可能であり、第2の方法は、あくまでも近似的に動きぼけを低減するという範囲に留まる。なお、第2の方法では、リアルタイム性が要求されないため、撮影後に、パーソナルコンピュータなどで、オフラインで処理を行うことができる。   However, it is impossible to accurately estimate the original motion of the camera from the image data of one frame, and the second method is limited to the extent that motion blur is approximately reduced. In the second method, since real-time performance is not required, processing can be performed offline with a personal computer or the like after shooting.

さらに、第3の方法として、カメラの動きそのものを検出するカメラを別に設け、動きぼけの検出能力を強化した方法がある(例えば、非特許文献1)。この第3の方法では、例えば、撮影用のカメラと動き検出用のカメラの計2台のカメラが設けられ、動き検出用のカメラでカメラの動きが検出され、その動きに基づいて撮像画像から動きぼけを削減するための画像処理が行われる。   Furthermore, as a third method, there is a method in which a camera for detecting the motion of the camera itself is separately provided to enhance the motion blur detection capability (for example, Non-Patent Document 1). In this third method, for example, a total of two cameras, a camera for shooting and a camera for motion detection, are provided, and the motion of the camera is detected by the camera for motion detection, and from the captured image based on the motion. Image processing is performed to reduce motion blur.

第3の方法では、第2の方法に比べて、動きそのものをより正確に検出することができるため、動きぼけの低減に効果がある。しかしながら、2台のカメラを使用する必要があり、実際の製品として実用化するのは難しい。   The third method is more effective in reducing motion blur because the motion itself can be detected more accurately than the second method. However, it is necessary to use two cameras, and it is difficult to put it to practical use as an actual product.

一方、近年、イメージセンサに蓄積された電荷を破壊せずに、その電荷に対応する画像信号を読み出す非破壊読み出しが可能な回路が考案されている(例えば、非特許文献2参照)。   On the other hand, in recent years, a circuit capable of nondestructive reading that reads an image signal corresponding to the charge without destructing the charge accumulated in the image sensor has been devised (for example, see Non-Patent Document 2).

Moshe Ben-Ezra, Shree K. Nayar “Motion-Based Motion Deblurring”, IEEE Transactions of Pattern Analysis and Machine Intelligence, June 2004, Vol. 26, No. 6, p.689698Moshe Ben-Ezra, Shree K. Nayar “Motion-Based Motion Deblurring”, IEEE Transactions of Pattern Analysis and Machine Intelligence, June 2004, Vol. 26, No. 6, p.689698 T.Nakamura, K.Matsumoto, R.Hyuga and A.Yusa “A NEW MOS IMAGE SENSOR OPERATING IN A NON-DESTRUCTIVE READOUT_MODE”, Electron Devices Meeting,1986 International,p.353-356T. Nakamura, K. Matsumoto, R. Hyuga and A. Yusa “A NEW MOS IMAGE SENSOR OPERATING IN A NON-DESTRUCTIVE READOUT_MODE”, Electron Devices Meeting, 1986 International, p.353-356

以上のように、動きぼけを削減する方法としては様々な方法が考案されているが、回路規模を大幅に増加させることなく、撮像画像内の被写体の動きを精度良く検出し、動きぼけを高精度で削減する方法は考えられていなかった。   As described above, various methods have been devised for reducing motion blur. However, the motion of a subject in a captured image can be accurately detected and the motion blur can be increased without significantly increasing the circuit scale. A method of reducing the accuracy was not considered.

本発明は、このような状況に鑑みてなされたものであり、回路規模を大幅に増加させることなく、撮像画像内の被写体の動きを精度良く検出することができるようにするものである。   The present invention has been made in view of such a situation, and makes it possible to accurately detect the movement of a subject in a captured image without greatly increasing the circuit scale.

本発明の一側面は、外部からの光を画素単位で光電変換する光電変換手段と、前記光電変換手段により得られた電荷を画素単位で蓄積する蓄積手段と、1フレームの撮像時間内に、前記蓄積手段により蓄積されている電荷に対応する信号を直後に撮像される撮像画像内の被写体の動きを検出するための検出信号として、複数回非破壊で読み出す検出信号読出手段と、1フレームの撮像時間ごとに、前記蓄積手段により蓄積されている電荷に対応する信号を、撮像画像信号として読み出す撮像画像信号読出手段とを備える撮像装置である。   One aspect of the present invention is a photoelectric conversion means for photoelectrically converting light from the outside in units of pixels, an accumulation means for storing charges obtained by the photoelectric conversion means in units of pixels, and within an imaging time of one frame, A detection signal reading unit that reads a signal corresponding to the electric charge accumulated by the accumulation unit as a detection signal for detecting a motion of a subject in a captured image that is imaged immediately thereafter, and a frame of non-destructive reading The imaging apparatus includes: a captured image signal reading unit that reads out a signal corresponding to the charge accumulated by the accumulation unit as a captured image signal every imaging time.

本発明の一側面は、撮像装置が、外部からの光を画素単位で光電変換する光電変換ステップと、前記光電変換ステップの処理により得られた電荷を画素単位で蓄積する蓄積ステップと、1フレームの撮像時間内に、前記蓄積ステップの処理により蓄積されている電荷に対応する信号を直後に撮像される撮像画像内の被写体の動きを検出するための検出信号として、複数回非破壊で読み出す検出信号読出ステップと、1フレームの撮像時間ごとに、前記蓄積ステップの処理により蓄積されている電荷に対応する信号を、撮像画像信号として読み出す撮像画像信号読出ステップとを含む撮像方法である。   According to one aspect of the present invention, an imaging device performs photoelectric conversion steps in which external light is photoelectrically converted in units of pixels, an accumulation step in which charges obtained by the processing of the photoelectric conversion steps are stored in units of pixels, and one frame In the imaging time, a signal corresponding to the charge accumulated by the processing of the accumulation step is detected as a detection signal for detecting the motion of the subject in the captured image that is imaged immediately after the detection, and is read out a plurality of times. The imaging method includes a signal readout step and a captured image signal readout step of reading out a signal corresponding to the charge accumulated by the processing of the accumulation step as a captured image signal every imaging time of one frame.

本発明の一側面においては、外部からの光が画素単位で光電変換され、その電荷が画素単位で蓄積され、1フレームの撮像時間内に、蓄積されている電荷に対応する信号が、直後に撮像される撮像画像内の被写体の動きを検出するための検出信号として、複数回非破壊で読み出され、1フレームの撮像時間ごとに、蓄積されている電荷に対応する信号が、撮像画像信号として読み出される。   In one aspect of the present invention, light from the outside is photoelectrically converted in units of pixels, the charges are accumulated in units of pixels, and a signal corresponding to the accumulated charges is immediately after the imaging time of one frame. As a detection signal for detecting the movement of the subject in the captured image to be captured, a signal corresponding to the accumulated charge that is read out non-destructively a plurality of times and stored for each imaging time of one frame is a captured image signal. Is read as

以上のように、本発明の一側面によれば、回路規模を大幅に増加させることなく、撮像画像内の被写体の動きを精度良く検出することができる。   As described above, according to one aspect of the present invention, it is possible to accurately detect the movement of a subject in a captured image without significantly increasing the circuit scale.

図1は、本発明を適用した撮像装置の一実施の形態の構成例を示すブロック図である。   FIG. 1 is a block diagram showing a configuration example of an embodiment of an imaging apparatus to which the present invention is applied.

図1の撮像装置10は、非破壊読み出し可能なCMOSイメージセンサであるイメージセンサ11と、信号処理部12により構成され、撮像時間内に撮像装置10や被写体が動くことによって生じる撮像画像内の被写体の動きを検出し、撮像画像の動きぼけを削減する。   The imaging device 10 in FIG. 1 includes an image sensor 11 that is a non-destructive readable CMOS image sensor and a signal processing unit 12, and a subject in a captured image that is generated when the imaging device 10 or the subject moves within the imaging time. Motion is detected, and motion blur of the captured image is reduced.

イメージセンサ11において、撮像部21は、モザイク上に配置されたカラーフィルタ21Aを通過した外部からの光を画素単位で光電変換し、その結果得られる電荷を蓄積する。この撮像部21には、読み出し経路として、撮像用の読み出し経路と動き検出用の読み出し経路の2つが設けられている。   In the image sensor 11, the imaging unit 21 photoelectrically converts light from the outside that has passed through the color filter 21 </ b> A arranged on the mosaic in units of pixels, and accumulates electric charges obtained as a result. The imaging unit 21 is provided with two readout paths, ie, an readout path for imaging and a readout path for motion detection.

具体的には、撮像部21は、画像用垂直走査回路22により選択された制御線23に対応する、1フレームの撮像時間内に画素単位で蓄積された電荷に対応する信号を、撮像画像の画像信号(以下、撮像画像信号という)として読み出す。これにより、所定のフレームレートで、走査線ごとに撮像画像信号が読み出され、読み出し線24を介して画像用カラム並列ADC25に供給される。   Specifically, the imaging unit 21 outputs a signal corresponding to the charge accumulated in units of pixels within the imaging time of one frame corresponding to the control line 23 selected by the image vertical scanning circuit 22 of the captured image. It reads out as an image signal (hereinafter referred to as a captured image signal). As a result, the captured image signal is read for each scanning line at a predetermined frame rate, and is supplied to the image column parallel ADC 25 via the reading line 24.

また、撮像部21は、検出用垂直走査回路29により選択された制御線30に対応する、1フレームの撮像時間より短い時間内に画素単位で蓄積された電荷に対応する信号を、直後に撮像される撮像画像内の被写体の動きを検出するための検出信号として非破壊で読み出す。これにより、撮像画像のフレームレートより高速のフレームレートで、走査線ごとに検出信号が読み出され、読み出し線31を介して検出用カラム並列ADC32に供給される。   In addition, the imaging unit 21 immediately captures a signal corresponding to the charge accumulated in units of pixels within a time shorter than the imaging time of one frame corresponding to the control line 30 selected by the detection vertical scanning circuit 29. As a detection signal for detecting the movement of the subject in the captured image, the non-destructive readout is performed. As a result, the detection signal is read for each scanning line at a frame rate faster than the frame rate of the captured image, and is supplied to the detection column parallel ADC 32 via the reading line 31.

画像用垂直走査回路22は、各走査線に対応する制御線23を順次選択することにより、撮像部21による撮像画像信号の読み出しを制御する。画像用カラム並列ADC25は、撮像部21から供給される撮像画像信号に対してA/D(Analog/Digital)変換を行い、その結果得られる撮像画像信号を、信号線26を介して読み出し回路27に供給する。   The image vertical scanning circuit 22 controls the readout of the captured image signal by the imaging unit 21 by sequentially selecting the control line 23 corresponding to each scanning line. The image column parallel ADC 25 performs A / D (Analog / Digital) conversion on the captured image signal supplied from the imaging unit 21, and reads out the captured image signal obtained as a result via the signal line 26. To supply.

読み出し回路27は、デジタル回路であり、画像用カラム並列ADC25から供給される撮像画像信号を、信号線28を介して信号処理部12に出力する。   The readout circuit 27 is a digital circuit, and outputs the captured image signal supplied from the image column parallel ADC 25 to the signal processing unit 12 via the signal line 28.

検出用垂直走査回路29は、所定の走査線に対応する制御線30を選択することにより、撮像部21による検出信号の読み出しを制御する。検出用カラム並列ADC32は、撮像部21から供給される検出信号に対してA/D変換を行い、その結果得られる検出信号を、信号線33を介して読み出し回路34に供給する。   The detection vertical scanning circuit 29 controls the reading of the detection signal by the imaging unit 21 by selecting the control line 30 corresponding to the predetermined scanning line. The detection column parallel ADC 32 performs A / D conversion on the detection signal supplied from the imaging unit 21, and supplies the detection signal obtained as a result to the readout circuit 34 via the signal line 33.

読み出し回路34は、デジタル回路であり、検出用カラム並列ADC32から供給される検出信号を、信号線35を介して信号処理部12に出力する。   The readout circuit 34 is a digital circuit, and outputs the detection signal supplied from the detection column parallel ADC 32 to the signal processing unit 12 via the signal line 35.

信号処理部12において、カメラ信号処理部41は、読み出し回路27から信号線28を介して供給される撮像画像信号に対して、各種の補正、レベル調整、デモザイク処理(詳細は後述する)などを行う。そして、信号処理部12は、その結果得られる撮像画像信号を、信号線42を介してバッファメモリ43に供給する。   In the signal processing unit 12, the camera signal processing unit 41 performs various corrections, level adjustments, demosaic processing (details will be described later), etc. on the captured image signal supplied from the readout circuit 27 via the signal line 28. Do. Then, the signal processing unit 12 supplies the captured image signal obtained as a result to the buffer memory 43 via the signal line 42.

なお、デモザイク処理とは、撮像画像信号としてのR,G,Bのデータ(以下、RAWデータという)から、全画面の各画素のR,G,Bのデータを補間してRGBの3面のデータ(ビットマップデータ)を求める処理である。   Note that demosaic processing is performed by interpolating R, G, and B data of each pixel on the entire screen from R, G, and B data (hereinafter referred to as RAW data) as a captured image signal. This is a process for obtaining data (bitmap data).

また、カメラ信号処理部41における処理は、上述した処理に限定されない。例えば、カメラ信号処理部41においてデモザイク処理が行われず、撮像画像信号としてRAWデータを用いて後段の処理が行われ、最後にデモザイク処理が行われるようにしてもよい。   Further, the processing in the camera signal processing unit 41 is not limited to the processing described above. For example, the demosaic processing may not be performed in the camera signal processing unit 41, the subsequent processing may be performed using RAW data as the captured image signal, and the demosaic processing may be performed last.

この場合、RAWデータを用いて後述する動きぼけの推定が行われるので、より実際の動きぼけに近い動きぼけを推定することができ、より精度良く動きぼけを削減することができる。また、RAWデータのデータ量は、ビットマップデータのデータ量の1/3であるので、後段の処理の演算量を抑えることが可能となる。さらに、動きぼけの削減処理時に、デモザイク処理を行うことで、演算の効率化が実現できる場合もある。   In this case, since motion blur, which will be described later, is estimated using RAW data, motion blur closer to the actual motion blur can be estimated, and motion blur can be reduced more accurately. In addition, since the data amount of the RAW data is 1/3 of the data amount of the bitmap data, it is possible to suppress the calculation amount of the subsequent processing. Further, there may be a case where the efficiency of calculation can be realized by performing the demosaic process at the time of the motion blur reduction process.

バッファメモリ43は、後段の処理とのタイミング調整のため、カメラ信号処理部41から供給される撮像画像信号を一時的に保持する。   The buffer memory 43 temporarily holds the captured image signal supplied from the camera signal processing unit 41 for timing adjustment with subsequent processing.

フレーム差分部44は、読み出し回路34から信号線35を介して供給される、連続する2フレームの検出信号の画素ごとの差分を求め、動き検出用の画像の画像信号(以下、動き検出画像信号という)とする。そして、フレーム差分部44は、この動き検出画像信号を、信号線45を介してノイズリダクション部46に供給する。   The frame difference unit 44 obtains a difference for each pixel of the detection signals of two consecutive frames supplied from the readout circuit 34 via the signal line 35 and obtains an image signal of a motion detection image (hereinafter referred to as a motion detection image signal). Said). Then, the frame difference unit 44 supplies the motion detection image signal to the noise reduction unit 46 via the signal line 45.

ノイズリダクション部46は、後段の処理の安定化のため、フレーム差分部44から供給される動き検出画像信号のノイズレベルを低減する。このノイズレベルの低減方法としては、一般的に、メディアンフィルタ、バイラレタルフィルタ、平均化処理などがある。ノイズリダクション部46は、ノイズレベルが低減された動き検出画像信号を、信号線47を介して動き検出部48に供給する。なお、ノイズリダクション部46は設けられなくてもよい。   The noise reduction unit 46 reduces the noise level of the motion detection image signal supplied from the frame difference unit 44 in order to stabilize the subsequent processing. As a noise level reduction method, there are generally a median filter, a viral filter, an averaging process, and the like. The noise reduction unit 46 supplies the motion detection image signal with the reduced noise level to the motion detection unit 48 via the signal line 47. Note that the noise reduction unit 46 may not be provided.

動き検出部48は、ノイズリダクション部46から供給される動き検出画像信号に基づいて、その動き検出画像信号に対応する動き検出用の画像における動きベクトルを検出する。この動きベクトルを検出する方法としては、ブロックマッチング法、オプティカルフロー法、コーナトラッキング法等がある。   Based on the motion detection image signal supplied from the noise reduction unit 46, the motion detection unit 48 detects a motion vector in a motion detection image corresponding to the motion detection image signal. As a method for detecting this motion vector, there are a block matching method, an optical flow method, a corner tracking method, and the like.

ブロックマッチング法とは、現在のフレームとそれより1つ前のフレームの画像のブロックの差分値を求め、その差分値が最小となるブロック間のベクトルを動きベクトルとして求める方法である。   The block matching method is a method for obtaining a difference value between blocks of an image of the current frame and the previous frame and obtaining a vector between blocks having the smallest difference value as a motion vector.

また、オプティカルフロー(Optical Flow)法とは、Lucas-Kanade法に代表される方法であり、画像を光の場と捉えて、その流れの計算により画像の動きベクトルを検出する方法である。   The optical flow method is a method typified by the Lucas-Kanade method, in which an image is regarded as a light field and a motion vector of the image is detected by calculation of the flow.

さらに、コーナトラッキング法とは、物体や風景などの被写体のコーナを特徴点(Feature Point, Interest Point)として検出し、その特徴点をトラッキングすることにより、動きベクトルを求める方法である。このコーナトラッキング法は、ハリスディテクタ(Harris Detector)に代表されるコーナ検出機能と、パーティクルフィルタ(Particle Filter)などのトラッキング機能を用いて実現することができる。   Further, the corner tracking method is a method of obtaining a motion vector by detecting a corner of a subject such as an object or a landscape as a feature point (Feature Point, Interest Point) and tracking the feature point. This corner tracking method can be realized by using a corner detection function represented by a Harris Detector and a tracking function such as a particle filter.

なお、動きベクトルの検出を画面内の全ての点において行うことは困難であるため、動き検出部48は、離散的なサンプリング点においてのみ動きベクトルの検出を行う。動き検出部48により検出された動きベクトルは、信号線49を介して動きベクトル場生成部50に供給される。   Since it is difficult to detect motion vectors at all points on the screen, the motion detection unit 48 detects motion vectors only at discrete sampling points. The motion vector detected by the motion detector 48 is supplied to the motion vector field generator 50 via the signal line 49.

動きベクトル場生成部50は、動き検出部48から供給される各サンプリング点の動きベクトルに基づいて、画面内の全ての点の動きベクトルを演繹し、補間する。例えば、被写体として動物体が含まれず、撮像装置10の動きが回転成分を含まない場合、画面内の動きの大きさは均一となる。しかしながら、この均一性は蓄積時間が同一となる走査線上でのみ存在するので、画面の垂直方向での補間は行う必要がある。   Based on the motion vector of each sampling point supplied from the motion detector 48, the motion vector field generator 50 deduces and interpolates the motion vectors of all points in the screen. For example, when a moving object is not included as a subject and the movement of the imaging device 10 does not include a rotation component, the magnitude of the movement in the screen is uniform. However, since this uniformity exists only on scanning lines having the same accumulation time, it is necessary to perform interpolation in the vertical direction of the screen.

また、撮像装置10の動きが回転成分を含む場合、画面内の動きの大きさは、回転中心からの距離によって異なり、動きの方向も位置によって異なる。従って、それらを考慮して補間を行う必要がある。よって、動きベクトル場生成部50は、例えば、距離によって重み付けされた動きベクトルの和を補間後の動きベクトルとして求める。   When the movement of the imaging device 10 includes a rotation component, the magnitude of the movement in the screen varies depending on the distance from the rotation center, and the direction of movement varies depending on the position. Therefore, it is necessary to perform interpolation in consideration of them. Therefore, the motion vector field generation unit 50 obtains, for example, the sum of motion vectors weighted by distance as a motion vector after interpolation.

また、動きベクトル場生成部50は、補間の結果得られる画面内の全ての点の動きベクトルを、信号線51を介して軌跡補間部52に供給する。   Further, the motion vector field generation unit 50 supplies the motion vectors of all points in the screen obtained as a result of the interpolation to the trajectory interpolation unit 52 via the signal line 51.

軌跡補間部52は、動きベクトル場生成部50から供給される、連続する所定数の各動き検出用画像内の全ての点の動きベクトルに基づいて、スプライン関数などによって、その動き検出用画像に対応する撮像画像内の被写体の動きの軌跡を求める。そして、軌跡補間部52は、求められた動きの軌跡を、信号線53を介してPSF(Point Spread Function)生成部54に供給する。   The trajectory interpolation unit 52 converts the motion detection image into a motion detection image using a spline function or the like based on the motion vectors of all the points in the predetermined number of continuous motion detection images supplied from the motion vector field generation unit 50. The locus of movement of the subject in the corresponding captured image is obtained. Then, the trajectory interpolation unit 52 supplies the obtained motion trajectory to a PSF (Point Spread Function) generation unit 54 via the signal line 53.

PSF生成部54は、軌跡補間部52からの動きベクトルの軌跡と、光学PSFデータメモリ55からの光学PSFデータとに基づいて、動きぼけを削減するための関数としてのPSF(以下、動きぼけPSFという)を求めることにより、各画素の動きぼけを推定する。なお、光学PSFデータとは、外部からの光を集光し、カラーフィルタ21Aを通過させる光学系(図示せず)のPSFを表すデータであり、撮像部21の有する光学的なぼけを表すデータである。   The PSF generation unit 54 uses a PSF (hereinafter referred to as motion blur PSF) as a function for reducing motion blur based on the motion vector trajectory from the trajectory interpolation unit 52 and the optical PSF data from the optical PSF data memory 55. The motion blur of each pixel is estimated. The optical PSF data is data representing the PSF of an optical system (not shown) that collects light from the outside and passes through the color filter 21A, and represents the optical blur of the imaging unit 21. It is.

また、PSF生成部54は、求められた動きぼけPSFを表す動きぼけPSFデータを、信号線57を介して動きぼけ削減部59に供給する。   In addition, the PSF generation unit 54 supplies motion blur PSF data representing the obtained motion blur PSF to the motion blur reduction unit 59 via the signal line 57.

光学PSFデータメモリ55は、光学PSFデータを予め記憶している。この光学PSFデータは、必要に応じて読み出され、信号線56を介してPSF生成部54に供給される。   The optical PSF data memory 55 stores optical PSF data in advance. The optical PSF data is read out as necessary and supplied to the PSF generation unit 54 via the signal line 56.

動きぼけ削減部59は、バッファメモリ43から撮像画像信号を、信号線58を介して読み出す。動きぼけ削減部59は、PSF生成部54から供給される動きぼけPSFデータを用いて、バッファメモリ43から読み出された撮像画像信号の動きぼけを削減し、信号線60を介して外部に出力する。   The motion blur reduction unit 59 reads the captured image signal from the buffer memory 43 via the signal line 58. The motion blur reduction unit 59 uses the motion blur PSF data supplied from the PSF generation unit 54 to reduce motion blur of the captured image signal read from the buffer memory 43 and outputs the signal to the outside via the signal line 60. To do.

バッファメモリ61は、フレーム差分部44から動きぼけ削減部59までの経路で出力されるデータや演算途中結果などを保持する。検出制御部62は、検出信号の読み出し方法を表す選択信号を、信号線63を介してイメージセンサ11の検出用垂直走査回路29に送信する。この選択信号に基づいて、検出用垂直走査回路29は制御線30の選択を行う。   The buffer memory 61 holds data output on the path from the frame difference unit 44 to the motion blur reduction unit 59, a calculation intermediate result, and the like. The detection control unit 62 transmits a selection signal indicating a detection signal reading method to the detection vertical scanning circuit 29 of the image sensor 11 via the signal line 63. Based on this selection signal, the detection vertical scanning circuit 29 selects the control line 30.

以上のように、撮像装置10では、イメージセンサ11が、所定のフレームレートで撮像画像信号を読み出すだけでなく、撮像画像信号より高速のフレームレートで検出信号を非破壊読み出しする。従って、撮像装置10では、撮像画像を取得するとともに、その撮像画像の撮像時間内に複数フレームの動き検出用画像を取得することができる。   As described above, in the imaging device 10, the image sensor 11 not only reads a captured image signal at a predetermined frame rate, but also reads a detection signal at a frame rate faster than the captured image signal. Therefore, the imaging apparatus 10 can acquire a captured image and acquire a plurality of frames of motion detection images within the imaging time of the captured image.

その結果、撮像装置10は、撮像画像信号を取得するイメージセンサ11を用いて、撮像画像内の被写体の動きを精度良く検出することができる。即ち、撮像装置10は、回路規模を大幅に増加させることなく、撮像画像内の被写体の動きを精度良く検出することができる。   As a result, the imaging apparatus 10 can accurately detect the movement of the subject in the captured image using the image sensor 11 that acquires the captured image signal. That is, the imaging apparatus 10 can accurately detect the movement of the subject in the captured image without significantly increasing the circuit scale.

次に、図2は、撮像部21の詳細構成例を示している。   Next, FIG. 2 shows a detailed configuration example of the imaging unit 21.

なお、図2では、説明の便宜上、撮像部21のうちの1画素分の構成、即ち1画素を撮像する画素部の構成について図示してある。このことは、後述する図3においても同様である。   In FIG. 2, for convenience of explanation, the configuration of one pixel in the imaging unit 21, that is, the configuration of the pixel unit that captures one pixel is illustrated. This also applies to FIG. 3 described later.

図2に示すように、1画素を撮像する画素部80では、光電変換を行うフォトダイオード81が設けられている。このフォトダイオード81には、撮像画像信号を読み出す撮像画像読出部82と、検出信号を読み出す検出用画像読出部83に接続されている。   As shown in FIG. 2, the pixel unit 80 that captures an image of one pixel is provided with a photodiode 81 that performs photoelectric conversion. The photodiode 81 is connected to a captured image reading unit 82 that reads a captured image signal and a detection image reading unit 83 that reads a detection signal.

撮像画像読出部82は、4つのMOSトランジスタ91乃至94と電源95により構成される。詳細には、撮像画像読出部82において、MOSトランジスタ91のソースは、フォトダイオード81と検出用画像読出部83のバックゲート103(後述する)に接続されている。また、MOSトランジスタ91のドレインはMOSトランジスタ92のソースとMOSトランジスタ93のゲートに接続され、ゲートは、制御線23のうちのトランスファ信号用の制御線97に接続されている。   The captured image reading unit 82 includes four MOS transistors 91 to 94 and a power source 95. Specifically, in the captured image reading unit 82, the source of the MOS transistor 91 is connected to the photodiode 81 and the back gate 103 (described later) of the detection image reading unit 83. The drain of the MOS transistor 91 is connected to the source of the MOS transistor 92 and the gate of the MOS transistor 93, and the gate is connected to the transfer signal control line 97 of the control line 23.

また、電源95は、MOSトランジスタ92および93のドレインに接続されている。MOSトランジスタ92のゲートは制御線23のうちの、リセット信号用の制御線96に接続され、MOSトランジスタ94のゲートは制御線23のうちの、走査線選択信号用の制御線98に接続されている。さらに、MOSトランジスタ94のドレインはMOSトランジスタ93のソースに接続され、ソースは読み出し線24に接続されている。   The power supply 95 is connected to the drains of the MOS transistors 92 and 93. The gate of the MOS transistor 92 is connected to the control line 96 for the reset signal in the control line 23, and the gate of the MOS transistor 94 is connected to the control line 98 for the scanning line selection signal in the control line 23. Yes. Further, the drain of the MOS transistor 94 is connected to the source of the MOS transistor 93, and the source is connected to the readout line 24.

以上のように構成される撮像画像読出部82では、画像用垂直走査回路22により制御線97が選択されて、トランスファ信号が、トランスファゲートとしてのMOSトランジスタ91のゲートに供給されると、MOSトランジスタ91がオンにされる。その結果、検出用画像読出部83のバックゲート103に蓄積された電荷がMOSトランジスタ93のゲートに転送される。これにより、バックゲート103に蓄積された電荷は破壊される。   In the captured image reading unit 82 configured as described above, when the control line 97 is selected by the image vertical scanning circuit 22 and the transfer signal is supplied to the gate of the MOS transistor 91 as the transfer gate, the MOS transistor 91 is turned on. As a result, the charge accumulated in the back gate 103 of the detection image reading unit 83 is transferred to the gate of the MOS transistor 93. Thereby, the electric charge accumulated in the back gate 103 is destroyed.

そして、画像用垂直走査回路22が制御線98を選択すると、走査線選択信号がMOSトランジスタ94のゲートに供給され、MOSトランジスタ94がオンとなる。その結果、MOSトランジスタ94に直列接続されているMOSトランジスタ93で、MOSトランジスタ91により転送された電荷が増幅され、撮像画像信号として読み出し線24を介して出力される。   When the image vertical scanning circuit 22 selects the control line 98, a scanning line selection signal is supplied to the gate of the MOS transistor 94, and the MOS transistor 94 is turned on. As a result, the charge transferred by the MOS transistor 91 is amplified by the MOS transistor 93 connected in series to the MOS transistor 94, and is output via the readout line 24 as a captured image signal.

以上のように、画素部80では、バックゲート103に蓄積された電荷が転送されることにより、撮像画像信号の読み出しが行われ、蓄積電荷の転送により蓄積電荷は破壊されるので、撮像画像信号の読み出しは破壊読み出しといえる。   As described above, in the pixel unit 80, the charge stored in the back gate 103 is transferred to read the captured image signal, and the stored charge is destroyed by the transfer of the stored charge. It can be said that reading of is destructive reading.

一方、画像用垂直走査回路22が制御線96を選択すると、リセット信号がMOSトランジスタ92に供給される。その結果、MOSトランジスタ92によって、バックゲート103に蓄積された電荷はリセットされる。   On the other hand, when the image vertical scanning circuit 22 selects the control line 96, a reset signal is supplied to the MOS transistor 92. As a result, the charge accumulated in the back gate 103 is reset by the MOS transistor 92.

検出用画像読出部83は、MOSトランジスタ101と電源102により構成される。詳細には、MOSトランジスタ101のソースは電源102と接続され、ドレインは読み出し線31と接続され、ゲートは、制御線30と接続されている。また、MOSトランジスタ101のチャンネル領域の直下に設けられるバックゲート103は、フォトダイオード81に接続されている。   The detection image reading unit 83 includes a MOS transistor 101 and a power source 102. Specifically, the source of the MOS transistor 101 is connected to the power supply 102, the drain is connected to the readout line 31, and the gate is connected to the control line 30. The back gate 103 provided immediately below the channel region of the MOS transistor 101 is connected to the photodiode 81.

以上のように構成される検出用画像読出部83では、フォトダイオード81で発生した電荷が、バックゲート103に蓄積される。そして、検出用垂直走査回路29により制御線30が選択され、制御線30を介して読み出し信号がMOSトランジスタ101のゲートに供給されると、MOSトランジスタ101がオンになる。その結果、バックゲート103に蓄積された電荷の電荷量に依存した信号が、検出信号として読み出し線31を介して出力される。   In the detection image reading unit 83 configured as described above, charges generated in the photodiode 81 are accumulated in the back gate 103. When the control line 30 is selected by the detection vertical scanning circuit 29 and a read signal is supplied to the gate of the MOS transistor 101 via the control line 30, the MOS transistor 101 is turned on. As a result, a signal depending on the amount of charge accumulated in the back gate 103 is output as a detection signal via the readout line 31.

このように、検出用画像読出部83では、バックゲート103に蓄積された電荷が維持されたまま、その電荷の電荷量に依存した検出信号が読み出されるので、検出信号の読み出しは、非破壊読み出しといえる。   As described above, the detection image reading unit 83 reads the detection signal depending on the charge amount while the charge accumulated in the back gate 103 is maintained. Therefore, the detection signal is read by non-destructive reading. It can be said.

次に、図3は、撮像部21の他の詳細構成例を示している。   Next, FIG. 3 shows another detailed configuration example of the imaging unit 21.

図3において、画素部120は、フォトダイオード121と、図2の検出用画像読出部83と同様に構成される撮像画像読出部122および検出用画像読出部123とにより構成され、撮像画像信号についても検出信号と同様に非破壊読み出しを行う。   3, the pixel unit 120 includes a photodiode 121, and a captured image reading unit 122 and a detection image reading unit 123 configured in the same manner as the detection image reading unit 83 in FIG. Similarly to the detection signal, nondestructive reading is performed.

具体的には、撮像画像読出部122は、MOSトランジスタ131と電源132により構成され、検出用画像読出部123は、MOSトランジスタ141と電源142により構成される。そして、MOSトランジスタ131のバックゲート133と、MOSトランジスタ141のバックゲート143が、フォトダイオード121に接続されている。   Specifically, the captured image reading unit 122 includes a MOS transistor 131 and a power source 132, and the detection image reading unit 123 includes a MOS transistor 141 and a power source 142. The back gate 133 of the MOS transistor 131 and the back gate 143 of the MOS transistor 141 are connected to the photodiode 121.

また、MOSトランジスタ131のドレインは電源132に接続され、ソースは読み出し線24に接続され、ゲートは制御線23に接続されている。一方、MOSトランジスタ141のソースは電源142に接続され、ドレインは読み出し線31に接続され、ゲートは制御線30に接続されている。   The drain of the MOS transistor 131 is connected to the power supply 132, the source is connected to the readout line 24, and the gate is connected to the control line 23. On the other hand, the source of the MOS transistor 141 is connected to the power supply 142, the drain is connected to the readout line 31, and the gate is connected to the control line 30.

以上のように構成される画素部120では、フォトダイオード121で発生した電荷が、検出信号の読み出し時には、検出用画像読出部123のバックゲート143に蓄積される。具体的には、フォトダイオード121で発生した電荷を矢印Aで示すようにバックゲート143に押しやる電位が、撮像画像読出部122のMOSトランジスタ131のゲートに、撮像用読み出し信号として制御線23を介して印加される。   In the pixel unit 120 configured as described above, charges generated in the photodiode 121 are accumulated in the back gate 143 of the detection image reading unit 123 when the detection signal is read. Specifically, a potential for pushing the electric charge generated in the photodiode 121 to the back gate 143 as indicated by an arrow A is applied to the gate of the MOS transistor 131 of the captured image reading unit 122 via the control line 23 as an imaging read signal. Applied.

そして、検出用垂直走査回路29により制御線30が選択され、制御線30を介して検出用読み出し信号がMOSトランジスタ141のゲートに印加され、MOSトランジスタ141がオンになる。これにより、バックゲート143に蓄積された電荷の電荷量に依存した信号、即ち、電荷量によって変調された信号が、検出信号として読み出し線31を介して出力される。   Then, the control line 30 is selected by the detection vertical scanning circuit 29, and a detection read signal is applied to the gate of the MOS transistor 141 via the control line 30, and the MOS transistor 141 is turned on. As a result, a signal that depends on the amount of charge accumulated in the back gate 143, that is, a signal modulated by the amount of charge, is output as a detection signal via the readout line 31.

一方、撮像画像信号の読み出し時には、フォトダイオード121で発生した電荷が、撮像画像読出部122のバックゲート133に蓄積される。具体的には、検出用画像読出部123のバックゲート143に蓄積されている電荷を、矢印Bで示すように、撮像画像読出部122のバックゲート133に押しやるような電位が、検出用読み出し信号として、MOSトランジスタ141のゲートに制御線30を介して印加される。   On the other hand, when the captured image signal is read, the charge generated by the photodiode 121 is accumulated in the back gate 133 of the captured image reading unit 122. Specifically, as indicated by an arrow B, a potential that pushes the charge accumulated in the back gate 143 of the detection image reading unit 123 to the back gate 133 of the captured image reading unit 122 is a detection read signal. And applied to the gate of the MOS transistor 141 via the control line 30.

そして、画像用垂直走査回路22により制御線23が選択され、制御線23を介して撮像用読み出し信号がMOSトランジスタ131のゲートに印加され、MOSトランジスタ131がオンになる。これにより、バックゲート143からバックゲート133に移動された電荷の電荷量に依存した信号が、撮像画像信号として読み出し線24を介して出力される。この後、蓄積されている電荷は、例えば、イメージセンサ11が配置される基板(図示せず)に流され、リセットされる。   Then, the control line 23 is selected by the image vertical scanning circuit 22, an imaging readout signal is applied to the gate of the MOS transistor 131 via the control line 23, and the MOS transistor 131 is turned on. As a result, a signal depending on the amount of charge transferred from the back gate 143 to the back gate 133 is output as a captured image signal via the readout line 24. Thereafter, the accumulated electric charge is caused to flow, for example, to a substrate (not shown) on which the image sensor 11 is arranged, and is reset.

以上のように、図3の画素部120では、撮像画像信号と検出信号の両方の非破壊読み出しを行うことができる。また、蓄積された電荷をバックゲート133または143に移動させるので、確実に読み出し動作を行うことができる。さらに、撮像画像信号と検出信号の読み出しに必要なMOSトランジスタは、2つであるので、5つのMOSトランジスタが必要な図2の画素部80に比べて、画素部120を小型化することができる。   As described above, the pixel unit 120 in FIG. 3 can perform nondestructive readout of both the captured image signal and the detection signal. In addition, since the accumulated charge is moved to the back gate 133 or 143, a read operation can be performed reliably. Furthermore, since the number of MOS transistors necessary for reading the captured image signal and the detection signal is two, the pixel unit 120 can be downsized as compared with the pixel unit 80 of FIG. 2 that requires five MOS transistors. .

なお、バックゲート133および143に蓄積される電荷は、電子であってもホールであってもよい。   Note that the charges accumulated in the back gates 133 and 143 may be electrons or holes.

次に、図4乃至図12を参照して、撮像画像信号と検出信号の読み出しタイミングについて説明する。   Next, the readout timing of the captured image signal and the detection signal will be described with reference to FIGS.

まず、図4は、撮像装置10が長時間露光を行う場合の読み出しタイミングについて示し、図5は、撮像装置10が比較的短時間の露光を行う場合の読み出しタイミングについて示している。   First, FIG. 4 shows the readout timing when the imaging apparatus 10 performs long exposure, and FIG. 5 shows the readout timing when the imaging apparatus 10 performs a relatively short exposure.

なお、図4Aおよび図5Aでは、横軸は時刻を表し、縦軸は撮像画像内の被写体の動きベクトルの大きさ、即ちシフト量を表している。また、図4Bおよび図5Bでは、横軸は時刻を表し、縦軸は、読み出される撮像画像信号または検出信号に対応する走査線の画面内の垂直方向の位置を表している。但し、この垂直方向の位置を表す値は、上部ほど大きくなるようになっている。従って、縦軸の上部は画面の上部を表し、下部は画面の下部を表す。このことは、以降の図についても同様である。   4A and 5A, the horizontal axis represents time, and the vertical axis represents the magnitude of the motion vector of the subject in the captured image, that is, the shift amount. 4B and 5B, the horizontal axis represents time, and the vertical axis represents the position of the scanning line in the vertical direction in the screen corresponding to the captured image signal or detection signal to be read. However, the value representing the position in the vertical direction is increased toward the top. Therefore, the upper part of the vertical axis represents the upper part of the screen, and the lower part represents the lower part of the screen. The same applies to the subsequent drawings.

図4Bでは、撮像画像のフレーム(以下、撮像フレームという)PF(Picture Frame)1の撮像画像信号と、その次の撮像フレームPF2の撮像画像信号の読み出しの間に、16枚の動き検出用画像のフレーム(以下、動き検出フレームという)DF(Detection Frame)1乃至DF16の検出信号が読み出される。そして、信号処理部12は、読み出された16枚の検出フレームDF1乃至DF16の検出信号から、フレームPF2の撮像画像内の被写体の動きベクトルの軌跡を検出し、その軌跡に基づいて動きぼけを削減する。   In FIG. 4B, there are 16 motion detection images during the readout of the captured image signal of a frame PF (Picture Frame) 1 of the captured image and the captured image signal of the next imaging frame PF2. Detection signals of DF (Detection Frame) 1 to DF16 are read out. Then, the signal processing unit 12 detects the locus of the motion vector of the subject in the captured image of the frame PF2 from the read detection signals of the 16 detection frames DF1 to DF16, and blurs the motion based on the locus. Reduce.

但し、撮像画像信号と検出信号の読み出しは、走査線ごとに行われるため、図4Bに示すように、同一フレームであっても走査線ごとに読み出し時刻が異なっている。図4Bの例では、画面の上部の読み出し時刻が早く、画面の下部の読み出し時刻が遅い。即ち、撮像画像信号と検出信号は、画面の上部から下部に向かって走査線ごとに順次読み出される。   However, since readout of the captured image signal and the detection signal is performed for each scanning line, the readout time is different for each scanning line even in the same frame as shown in FIG. 4B. In the example of FIG. 4B, the readout time at the top of the screen is early and the readout time at the bottom of the screen is late. That is, the captured image signal and the detection signal are sequentially read for each scanning line from the top to the bottom of the screen.

従って、図4Bに示すように、画面の上部の走査線における撮像時間161、画面の中央部の走査線における撮像時間162、および画面の下部の走査線における撮像時間163は異なっている。   Therefore, as shown in FIG. 4B, the imaging time 161 for the scanning line at the top of the screen, the imaging time 162 for the scanning line at the center of the screen, and the imaging time 163 for the scanning line at the bottom of the screen are different.

しかしながら、長時間露光が行われる場合、撮像時間161乃至163の大部分は重なっており、図4Aに示すように、撮像時間161乃至163内の被写体の動きベクトルの軌跡に大差はない。従って、信号処理部12は、画面全体で共通の撮像時間内の被写体の動きベクトルの軌跡を用いて、動きぼけの削減を行うことができる。   However, when long-time exposure is performed, most of the imaging times 161 to 163 overlap, and as shown in FIG. 4A, there is no great difference in the trajectory of the motion vector of the subject within the imaging times 161 to 163. Therefore, the signal processing unit 12 can reduce motion blur by using the motion vector trajectory of the subject within the imaging time common to the entire screen.

これに対して、図5に示すように、露光時間が比較的短い場合、図5Bに示すように、撮像フレームPF11の撮像画像信号と、その次のフレームPF12の撮像画像信号の読み出しの間が、図4Bの場合に比べて短くなる。   On the other hand, as shown in FIG. 5, when the exposure time is relatively short, as shown in FIG. 5B, the interval between reading of the captured image signal of the captured frame PF11 and the captured image signal of the next frame PF12 is between. This is shorter than in the case of FIG. 4B.

このため、画面の上部の走査線における撮像時間181、画面の中央部の走査線における撮像時間182、および画面の下部の走査線における撮像時間183の重なり部分の割合は小さくなる。従って、図5Aに示すように、撮像時間181乃至183内の被写体の動きベクトルの軌跡は大きく異なる場合がある。   For this reason, the ratio of the overlapping portion of the imaging time 181 in the scanning line at the top of the screen, the imaging time 182 in the scanning line in the center of the screen, and the imaging time 183 in the scanning line in the bottom of the screen is small. Therefore, as shown in FIG. 5A, the trajectory of the motion vector of the subject within the imaging time 181 to 183 may be greatly different.

そこで、露光時間が比較的短い場合、信号処理部12は、画面全体を垂直方向に走査線単位で複数の領域に分割して、各領域の撮像時間内の被写体の動きベクトルの軌跡を求め、その各領域の動きベクトルの軌跡を用いて、領域ごとに動きぼけの削減を行う。これにより、動きぼけの削減精度を向上させることができる。   Therefore, when the exposure time is relatively short, the signal processing unit 12 divides the entire screen into a plurality of areas in the scanning direction in the vertical direction, and obtains the locus of the motion vector of the subject within the imaging time of each area, Using the motion vector trajectory of each region, motion blur is reduced for each region. Thereby, the motion blur reduction accuracy can be improved.

また、検出信号のフレームレートが高い場合、即ち、露光時間が短い、撮像時間内に読み出される検出信号のフレーム数が多い等により、検出信号のフレーム間隔が短い場合、複数のフレームの走査線単位の検出信号を同一のタイミングで読み出す必要がある。   In addition, when the frame rate of the detection signal is high, that is, when the frame interval of the detection signal is short due to a short exposure time, a large number of detection signal frames to be read within the imaging time, etc. Must be read at the same timing.

図6は、検出信号のフレームレートが高い場合に必要とされる読み出しタイミングについて説明する図である。   FIG. 6 is a diagram for explaining the read timing required when the frame rate of the detection signal is high.

なお、図6において、横軸は時刻を表し、縦軸は、読み出される撮像画像信号または検出信号に対応する走査線の画面内の垂直方向の位置を表している。また、図6の場合、電子シャッタは使用されないものとする。   In FIG. 6, the horizontal axis represents time, and the vertical axis represents the position of the scanning line in the vertical direction in the screen corresponding to the captured image signal or detection signal to be read. In the case of FIG. 6, the electronic shutter is not used.

図6では、撮像フレームPF21の撮像画像信号が読み出された後、その次の撮像フレームPF22の撮像画像信号が読み出されるまでの間、即ち撮像フレームPF22の撮像時間201内に、4枚の検出フレームDF21乃至24の検出信号が読み出される。なお、最後の検出フレームDF24の検出信号は、撮像フレームPF22の撮像画像信号の直前のΔ時間だけ前に読み出される。   In FIG. 6, after the captured image signal of the imaging frame PF21 is read, until the captured image signal of the next imaging frame PF22 is read out, that is, within the imaging time 201 of the imaging frame PF22, four images are detected. The detection signals of the frames DF21 to DF24 are read out. Note that the detection signal of the last detection frame DF24 is read out by Δ time immediately before the captured image signal of the imaging frame PF22.

また、撮像フレームPF21や、撮像フレームPF22の次の撮像フレームPF23の撮像時間内においても、撮像フレームPF22の場合と同様に、4枚の検出フレームDF21乃至24の検出信号が読み出される。   Similarly to the imaging frame PF22, the detection signals of the four detection frames DF21 to DF24 are read out within the imaging time of the imaging frame PF21 and the imaging frame PF23 next to the imaging frame PF22.

図6の例では、検出フレームDF21乃至DF24のフレーム間隔202が短いため、1時刻に、1枚の撮像フレームの撮像信号とともに、4枚の検出フレームDF21乃至DF24の走査線の検出信号を読み出す必要がある。   In the example of FIG. 6, since the frame interval 202 of the detection frames DF21 to DF24 is short, it is necessary to read the detection signals of the scanning lines of the four detection frames DF21 to DF24 together with the imaging signal of one imaging frame at one time. There is.

例えば、時刻203では、撮像フレームPF21の垂直方向の位置210の走査線の撮像信号とともに、撮像フレームPF21を跨いだ4枚の検出フレームの検出信号を読み出す必要がある。具体的には、撮像フレームPF22の撮像時間内の検出フレームDF23の垂直方向の位置211、検出フレームDF22の垂直方向の位置212、および検出フレームDF21の垂直方向の位置213、並びに撮像フレームPF21の撮像時間内の検出フレームDF24の垂直方向の位置214の走査線の検出信号を読み出す必要がある。   For example, at time 203, it is necessary to read out detection signals of four detection frames straddling the imaging frame PF21 together with the imaging signal of the scanning line at the position 210 in the vertical direction of the imaging frame PF21. Specifically, the vertical position 211 of the detection frame DF23, the vertical position 212 of the detection frame DF22, the vertical position 213 of the detection frame DF21, and the imaging frame PF21 within the imaging time of the imaging frame PF22 It is necessary to read the detection signal of the scanning line at the position 214 in the vertical direction of the detection frame DF24 within the time.

また、時刻204では、撮像フレームPF22の撮像信号とともに、撮像フレームPF22を跨いだ4枚の検出フレームの検出信号を読み出す必要がある。具体的には、時刻204では、撮像フレームPF22の撮像時間201内の検出フレームDF23およびDF24、並びに、撮像フレームPF23の撮像時間内の検出フレームDF21およびDF22の検出信号を読み出す必要がある。   At time 204, it is necessary to read out the detection signals of the four detection frames straddling the imaging frame PF22 together with the imaging signal of the imaging frame PF22. Specifically, at time 204, it is necessary to read out detection frames DF23 and DF24 within the imaging time 201 of the imaging frame PF22 and detection signals of the detection frames DF21 and DF22 within the imaging time of the imaging frame PF23.

しかしながら、撮像画像信号と検出信号の読み出しレートが同一である場合、1フレームの撮像画像信号を読み出す間に、4フレームの検出信号を時分割で読み出すことはできない。従って、検出信号の1フレーム当たりの読み出し時間を、撮像画像信号の1フレーム当たりの読み出し時間の1/4にする必要がある。   However, when the readout rate of the captured image signal and the detection signal is the same, the detection signal of 4 frames cannot be read out in a time division manner while the captured image signal of 1 frame is read out. Therefore, the readout time per frame of the detection signal needs to be ¼ of the readout time per frame of the captured image signal.

そこで、撮像装置10では、以下の第1乃至第3の方法のいずれかを用いて、検出信号の1フレーム当たりの読み出し時間を1/4に削減する。なお、この第1乃至第3の方法のいずれかを用いた読み出しは、検出制御部62が、その方法を表す選択信号を、信号線63を介して検出用垂直走査回路29に送信することにより行われる。   Therefore, in the imaging apparatus 10, the reading time per frame of the detection signal is reduced to 1/4 by using any of the following first to third methods. In the reading using any one of the first to third methods, the detection control unit 62 transmits a selection signal representing the method to the detection vertical scanning circuit 29 via the signal line 63. Done.

まず、図7を参照して、第1の方法について説明する。   First, the first method will be described with reference to FIG.

第1の方法は、読出対象とする検出信号の走査線を間引く方法である。   The first method is a method of thinning out scanning lines of detection signals to be read.

具体的には、第1の方法では、図7Aに示すように、4本の走査線につき1本の走査線の検出信号が読み出される。即ち、上からn番目、n+4番目、n+8番目、・・・の走査線の画素(図中黒丸)の画素部80(120)に蓄積される電荷に対応する検出信号が読み出される。そして、その走査線以外の走査線の画素(図中白丸)の画素部80(120)に蓄積される電荷に対応する検出信号は読み出されない。   Specifically, in the first method, as shown in FIG. 7A, the detection signal of one scanning line is read out for every four scanning lines. That is, the detection signal corresponding to the charge accumulated in the pixel portion 80 (120) of the pixel (black circle in the figure) of the nth, n + 4th, n + 8th,. And the detection signal corresponding to the electric charge accumulated in the pixel portion 80 (120) of the pixel (white circle in the figure) of the scanning line other than the scanning line is not read out.

また、図7Aの黒丸で表される画素の検出信号は、走査線ごとに、上から順に読み出される。即ち、上からn番目、n+4番目、n+8番目、・・・の順に、各走査線の検出信号が読み出される。なお、図7Aにおいて、横軸は、画面内の水平方向の位置を表し、縦軸は、画面内の走査線の垂直方向の位置を表している。   In addition, pixel detection signals represented by black circles in FIG. 7A are sequentially read from the top for each scanning line. That is, the detection signals of the respective scanning lines are read out in the order of nth, n + 4th, n + 8th,. In FIG. 7A, the horizontal axis represents the horizontal position in the screen, and the vertical axis represents the vertical position of the scanning line in the screen.

次に、図7Bを参照して、第1の方法を用いた場合の時刻203(図6)付近における4枚の検出フレームDF21乃至DF24の検出信号の読み出しタイミングについて説明する。なお、図7Bにおいて、横軸は時刻を表し、縦軸は、画面内の走査線の垂直方向の位置を表している。また、図7Bにおいて、破線はフレームの境界を表している。   Next, with reference to FIG. 7B, the detection timing of the detection signals of the four detection frames DF21 to DF24 around the time 203 (FIG. 6) when the first method is used will be described. In FIG. 7B, the horizontal axis represents time, and the vertical axis represents the vertical position of the scanning line in the screen. In FIG. 7B, a broken line represents a frame boundary.

図7Bに示すように、時刻203において、まず、撮像フレームPF22の撮像時間内の検出フレームDF23の、位置211に対応する上からa番目の走査線の検出信号が読み出される。次に、撮像フレームPF22の撮像時間内の検出フレームDF22の、位置212に対応する上からb番目の走査線の検出信号が読み出される。その後、撮像フレームPF22の撮像時間内の検出フレームDF21の、位置213に対応する上からc番目の走査線の検出信号が読み出される。そして、撮像フレームPF21の撮像時間内の検出フレームDF24の、位置214に対応する上からd番目の走査線の検出信号が読み出される。   As shown in FIG. 7B, at time 203, first, the detection signal of the a-th scanning line from the top corresponding to the position 211 of the detection frame DF23 within the imaging time of the imaging frame PF22 is read out. Next, the detection signal of the b-th scanning line from the top corresponding to the position 212 of the detection frame DF22 within the imaging time of the imaging frame PF22 is read. Thereafter, the detection signal of the c-th scanning line from the top corresponding to the position 213 of the detection frame DF21 within the imaging time of the imaging frame PF22 is read. Then, the detection signal of the d-th scanning line from the top corresponding to the position 214 of the detection frame DF24 within the imaging time of the imaging frame PF21 is read.

次に、時刻203の1時刻後において、まず、撮像フレームPF22の撮像時間内の検出フレームDF23の、上からa+4番目の走査線の検出信号が読み出される。次に、撮像フレームPF22の撮像時間内の検出フレームDF22の、上からb+4番目の走査線の検出信号が読み出される。その後、撮像フレームPF22の撮像時間内の検出フレームDF21の、上からc+4番目の走査線の検出信号が読み出される。そして、撮像フレームPF21の撮像時間内の検出フレームDF24の、上からd+4番目の走査線の検出信号が読み出される。   Next, one time after the time 203, first, the detection signal of the a + 4th scanning line from the top of the detection frame DF23 within the imaging time of the imaging frame PF22 is read out. Next, the detection signal of the (b + 4) th scanning line from the top of the detection frame DF22 within the imaging time of the imaging frame PF22 is read out. Thereafter, the detection signal of the c + 4th scanning line from the top of the detection frame DF21 within the imaging time of the imaging frame PF22 is read out. Then, the detection signal of the d + 4th scanning line from the top of the detection frame DF24 within the imaging time of the imaging frame PF21 is read out.

そして、時刻203の2時刻後において、撮像フレームPF22の撮像時間内の検出フレームDF23の、上からa+8番目の走査線の検出信号が読み出され、以降も同様に検出信号の読み出しが行われる。   Then, two hours after the time 203, the detection signal of the a + 8th scanning line from the top of the detection frame DF23 within the imaging time of the imaging frame PF22 is read out, and the detection signal is similarly read out thereafter.

以上のように、第1の方法を用いた読み出しでは、同一の時刻に読み出す必要のある4枚の検出フレームDF21乃至DF24の検出信号が、検出フレームごとに時分割で読み出され、各検出フレームの検出信号は4走査線ごとに読み出される。   As described above, in the reading using the first method, the detection signals of the four detection frames DF21 to DF24 that need to be read at the same time are read out in time division for each detection frame, and each detection frame is read out. These detection signals are read every four scanning lines.

なお、上述した説明では、読出対象とする走査線を1/4に間引いたが、走査線を1/2に間引くとともに、1本の走査線内の読出対象とする画素数を1/2に間引いて、2本の走査線の検出信号を同時に読み出すことにより、検出信号の1フレーム当たりの読み出し時間を1/4にするようにしてもよい。   In the above description, the scanning line to be read is thinned to 1/4, but the scanning line is thinned to 1/2 and the number of pixels to be read in one scanning line is halved. By thinning out and simultaneously reading out the detection signals of the two scanning lines, the read time per frame of the detection signal may be reduced to 1/4.

図8を参照して、この場合に読み出される検出信号について説明する。なお、図8において、横軸は、画面内の水平方向の位置を表し、縦軸は、画面内の走査線の垂直方向の位置を表している。また、図8において丸は画素を表している。   The detection signal read in this case will be described with reference to FIG. In FIG. 8, the horizontal axis represents the horizontal position in the screen, and the vertical axis represents the vertical position of the scanning line in the screen. In FIG. 8, circles represent pixels.

図8に示すように、4本の走査線の全画素からなる間引きブロック250を単位として、読出対象が間引きされる。   As shown in FIG. 8, the reading target is thinned out with a thinning block 250 composed of all the pixels of the four scanning lines as a unit.

具体的には、例えば、間引きブロック250内の上から1番目の走査線の1つおきの画素と、上から3番目の走査線の1つおきの画素(図中黒丸)の画素部80(120)に蓄積される電荷が、それぞれ異なる読み出し線31を介して同時に検出信号として読み出される。   Specifically, for example, every other pixel of the first scanning line from the top in the thinning block 250 and every other pixel (black circle in the figure) of the third scanning line from the top, the pixel portion 80 ( 120) are simultaneously read out as detection signals via different readout lines 31.

なお、間引きブロック250内の読出対象となる2本の走査線においては、1つおきの画素ごとに検出信号が読み出されるので、画面内の水平方向の画素数分だけ設けられる読み出し線31を介して、2本の走査線の検出信号を同時に読み出すことができる。   In the two scanning lines to be read out in the thinning block 250, detection signals are read out for every other pixel, and therefore, through the readout lines 31 provided for the number of pixels in the horizontal direction in the screen. Thus, the detection signals of the two scanning lines can be read out simultaneously.

また、間引きブロック250内の上から1番目の走査線の1つおきの画素と、上から3番目の走査線の1つおきの画素(図中黒丸)以外の画素(図中白丸)の画素部80(120)に蓄積される電荷は検出信号として読み出されない。   In addition, every other pixel of the first scanning line from the top in the thinning block 250 and every other pixel (black circle in the figure) other than every other pixel (black circle in the figure) of the third scanning line from the top. The charge accumulated in the unit 80 (120) is not read out as a detection signal.

次に、図9を参照して、第2の方法について説明する。   Next, the second method will be described with reference to FIG.

第2の方法は、近隣の画素の検出信号を加算して読み出す方法である。   The second method is a method of adding and detecting detection signals of neighboring pixels.

具体的には、図9に示すように、撮像部21の前段に設けられたカラーフィルタ21Aは、R,G,Bの各色のカラーフィルタがベイヤ配置されることにより構成される。そして、カラーフィルタ21Aを通過した光が、撮像部21のフォトダイオード81(121)で光電変換される。その結果、撮像画像信号および検出信号としては、R,G,Bのいずれかの色の信号、即ち、カラーの信号が読み出されることになる。   Specifically, as shown in FIG. 9, the color filter 21 </ b> A provided in the previous stage of the imaging unit 21 is configured by arranging color filters of R, G, and B colors in a Bayer manner. Then, the light that has passed through the color filter 21A is photoelectrically converted by the photodiode 81 (121) of the imaging unit 21. As a result, as the captured image signal and the detection signal, a signal of any color of R, G, and B, that is, a color signal is read out.

しかしながら、検出信号が、カラーの信号ではなく、グレーの信号であっても、撮像画像内の被写体の動きを検出することができる。   However, even if the detection signal is not a color signal but a gray signal, the movement of the subject in the captured image can be detected.

そこで、第2の方法では、近隣の各色の画素の検出信号を加算し、その結果得られる擬似的なグレーの信号を検出信号として生成する。図9の例では、4×4の画素からなるウィンドウ270の検出信号を加算して読み出す。   Therefore, in the second method, detection signals of neighboring pixels of each color are added, and a pseudo gray signal obtained as a result is generated as a detection signal. In the example of FIG. 9, the detection signals of the window 270 made up of 4 × 4 pixels are added and read.

次に、図10を参照して、図9のウィンドウ270単位で検出信号を加算して読み出す場合の読み出し回路34の詳細な構成について説明する。   Next, with reference to FIG. 10, a detailed configuration of the reading circuit 34 in the case where the detection signals are added and read in units of the window 270 in FIG. 9 will be described.

第2の方法では、図10の検出用垂直走査回路29が、カラーフィルタ21Aのウィンドウ270に対応する4つの制御線30を同時に選択する。これにより、読み出し線31において、ウィンドウ270を構成する水平方向が同一の位置の4本の走査線上の画素の検出信号がそれぞれ加算され、その結果得られる信号(以下、4画素合算検出信号という)が出力される。   In the second method, the detection vertical scanning circuit 29 in FIG. 10 simultaneously selects the four control lines 30 corresponding to the window 270 of the color filter 21A. As a result, the detection signals of the pixels on the four scanning lines at the same position in the horizontal direction constituting the window 270 in the readout line 31 are added, and a signal obtained as a result (hereinafter referred to as a four-pixel combined detection signal). Is output.

例えば、図10の例では、一番右側の読み出し線31において、R,G,R,Bの4つの画素の検出信号が加算され、右から2番目の読み出し線31において、G、B,G,Bの4つの画素の検出信号が加算される。   For example, in the example of FIG. 10, detection signals of four pixels R, G, R, and B are added in the rightmost readout line 31, and G, B, and G are added in the second readout line 31 from the right. , B detection signals of the four pixels are added.

以上のように、第2の方法では、4本の走査線が同時に選択されて、検出信号が読み出されるので、4本の走査線の検出信号の読み出し時間が、1本の走査線の検出信号の読み出し時間と同一となる。その結果、検出信号の1フレーム当たりの読み出し時間は1/4に削減される。   As described above, in the second method, four scanning lines are simultaneously selected and the detection signal is read out, so that the detection time of the detection signal of the four scanning lines is the detection signal of one scanning line. Is the same as the read time of. As a result, the readout time of the detection signal per frame is reduced to 1/4.

また、検出用カラム並列ADC32は、図10に示すように、並列に接続された、画面内の水平方向の画素数のADC280から構成される。そして、各ADC280には、そのADC280に対応する水平方向の画素の画素部80(120)に接続される読み出し線31が接続されている。   As shown in FIG. 10, the detection column parallel ADC 32 includes ADCs 280 having the number of pixels in the horizontal direction in the screen connected in parallel. Each ADC 280 is connected to the readout line 31 connected to the pixel portion 80 (120) of the horizontal pixel corresponding to the ADC 280.

従って、第2の方法では、4つのADC280に、それぞれに接続されている読み出し線31を介して、各ADC280に対応する水平方向の画素の4画素合算検出信号が同時に供給される。そして、各ADC280は、その4画素合算検出信号に対してA/D変換を行い、その結果得られるデジタル信号を、信号線33を介して読み出し回路34に供給する。   Therefore, in the second method, the four pixel total detection signals of the pixels in the horizontal direction corresponding to the respective ADCs 280 are simultaneously supplied to the four ADCs 280 via the readout lines 31 connected thereto. Each ADC 280 performs A / D conversion on the four-pixel sum detection signal, and supplies a digital signal obtained as a result to the readout circuit 34 via the signal line 33.

さらに、図10において、読み出し回路34は、加算回路291、信号線292、および検出用読み出し回路293により構成される。   Further, in FIG. 10, the readout circuit 34 includes an addition circuit 291, a signal line 292, and a detection readout circuit 293.

加算回路291は、4つの信号線33を介して供給されるウィンドウ270の4つの4画素合算検出信号をデジタル的に加算する。これにより、ウィンドウ270を構成する、8個のGの画素と4個のRおよびBの画素からなる4×4の画素の全ての検出信号が加算された結果が、擬似的な輝度情報として算出される。   The adder circuit 291 digitally adds the four 4-pixel sum detection signals of the window 270 supplied via the four signal lines 33. As a result, the result of adding all the detection signals of the 4 × 4 pixels composed of the 8 G pixels and the 4 R and B pixels constituting the window 270 is calculated as pseudo luminance information. Is done.

検出用読み出し回路293は、加算回路291により加算された結果得られる擬似的な輝度情報を検出信号として読み出し、信号線35を介して出力する。従って、1フレーム当たりの検出信号のデータ量は、1/16に削減される。   The detection readout circuit 293 reads out pseudo luminance information obtained as a result of addition by the addition circuit 291 as a detection signal, and outputs the detection signal via the signal line 35. Therefore, the data amount of the detection signal per frame is reduced to 1/16.

以上のように、第2の方法では、ウィンドウ270単位で検出信号が加算されるため、検出感度を向上させることができる。即ち、検出信号は高速のフレームレートで読み出されるので、画素部80(120)における電荷の蓄積時間が短い。従って、蓄積電荷の増加量が少なくなり、その蓄積電荷に対応する検出信号に基づく動き検出の検出感度が悪くなる場合がある。第2の方法では、ウィンドウ270単位で検出信号が加算されるので、検出信号の増加分が多くなり、検出感度が向上する。   As described above, in the second method, the detection signal is added in units of the window 270, so that the detection sensitivity can be improved. That is, since the detection signal is read out at a high frame rate, the charge accumulation time in the pixel portion 80 (120) is short. Therefore, the increase amount of the accumulated charge is reduced, and the detection sensitivity of the motion detection based on the detection signal corresponding to the accumulated charge may be deteriorated. In the second method, since the detection signal is added in units of window 270, the increase in the detection signal is increased and the detection sensitivity is improved.

なお、図10では、1つのウィンドウ270の検出信号の読み出しについて説明したが、ウィンドウ270単位の検出信号の読み出しは、垂直方向が同一のウィンドウ270については同時に行われる。   In FIG. 10, the reading of the detection signal of one window 270 has been described. However, the reading of the detection signal in units of the window 270 is simultaneously performed for the windows 270 having the same vertical direction.

ウィンドウ270単位の検出信号の読み出しのタイミングについては、第1の方法の場合と同様であるので、説明は省略する。第2の方法では、ウィンドウ270の垂直方向の画素数が、第1の方法の走査線の間引き数に相当する。   The timing of reading the detection signal in units of window 270 is the same as in the case of the first method, and thus the description thereof is omitted. In the second method, the number of pixels in the vertical direction of the window 270 corresponds to the thinning-out number of the scanning lines in the first method.

なお、上述した説明では、第2の方法において、ウィンドウ270を構成する全画素の検出信号が加算されたが、ウィンドウ270を構成する全画素の検出信号が平均化されるようにしてもよい。   In the above description, in the second method, the detection signals of all the pixels constituting the window 270 are added, but the detection signals of all the pixels constituting the window 270 may be averaged.

次に、図11を参照して、第3の方法について説明する。   Next, the third method will be described with reference to FIG.

第3の方法は、検出信号を部分的に読み出す方法である。   The third method is a method of partially reading the detection signal.

図11は、読出対象の検出信号に対応する画面内の領域の例を示している。なお、図11において、横方向が画面の水平方向であり、縦方向が画面の垂直方向である。   FIG. 11 shows an example of a region in the screen corresponding to the detection signal to be read. In FIG. 11, the horizontal direction is the horizontal direction of the screen, and the vertical direction is the vertical direction of the screen.

第3の方法では、例えば、図11の画面300において、図中斜線が付された領域301の検出信号が読み出され、他の領域の検出信号は読み出されない。図11の例では、画面300の垂直方向には、位置Y1乃至Y4に4個の領域301が設けられ、水平方向には位置X1乃至X7に7個の領域301が設けられている。即ち、画面300には合計28個の領域301が設けられている。   In the third method, for example, on the screen 300 in FIG. 11, the detection signal of the area 301 that is hatched in the drawing is read, and the detection signals of other areas are not read. In the example of FIG. 11, four areas 301 are provided at positions Y1 to Y4 in the vertical direction of the screen 300, and seven areas 301 are provided at positions X1 to X7 in the horizontal direction. In other words, a total of 28 areas 301 are provided on the screen 300.

なお、検出信号の読み出しは、走査線ごとに行われるので、垂直方向の位置が同一である領域301は、走査線単位で同時に読み出される。例えば、垂直方向の位置がY1で、水平方向の位置がX1乃至X7のいずれかである7個の領域301は、走査線単位で同時に読み出される。   Note that since the detection signal is read for each scanning line, the regions 301 having the same position in the vertical direction are simultaneously read in units of scanning lines. For example, seven regions 301 whose vertical position is Y1 and whose horizontal position is any one of X1 to X7 are simultaneously read in units of scanning lines.

また、領域301のサイズは、検出対象として想定される動きの大きさに依存する。大きな動きが想定されている場合、領域301のサイズは大きく設定され、小さな動きが想定されている場合、領域301のサイズは小さく設定される。   In addition, the size of the region 301 depends on the magnitude of motion assumed as a detection target. When a large movement is assumed, the size of the area 301 is set large, and when a small movement is assumed, the size of the area 301 is set small.

さらに、画面300内の領域301の数Nvは、画面300内の全走査線数の1/4倍を、領域301内の垂直方向の画素数Avで除算した値である。これにより、検出信号の1フレーム当たりの読み出し時間は、撮像信号の1フレーム当たりの読み出し時間の1/4倍に削減される。   Further, the number Nv of the regions 301 in the screen 300 is a value obtained by dividing 1/4 of the total number of scanning lines in the screen 300 by the number of pixels Av in the vertical direction in the region 301. Thereby, the readout time per frame of the detection signal is reduced to 1/4 times the readout time per frame of the imaging signal.

次に、図12を参照して、第3の方法を用いた場合の検出信号の読み出しタイミングについて説明する。なお、図12において、横軸は時刻を表し、縦軸は、画面内の走査線の垂直方向の位置を表している。   Next, with reference to FIG. 12, the read timing of the detection signal when the third method is used will be described. In FIG. 12, the horizontal axis represents time, and the vertical axis represents the vertical position of the scanning line in the screen.

ここでは、図12の時刻321における検出信号の読み出しタイミングについて説明するが、他の時刻においても同様である。   Here, the detection signal readout timing at time 321 in FIG. 12 will be described, but the same applies to other times.

図12に示すように、時刻321では、撮像フレームPF22の撮像時間内の検出フレームDF23の垂直方向の位置Y1、検出フレームDF22の位置Y2、および検出フレームDF21の位置Y3、並びに撮像フレームPF21の撮像時間内の検出フレームDF24の位置Y4の領域301の検出信号を読み出す必要がある。   As shown in FIG. 12, at time 321, the vertical position Y1 of the detection frame DF23, the position Y2 of the detection frame DF22, the position Y3 of the detection frame DF21, and the imaging of the imaging frame PF21 within the imaging time of the imaging frame PF22 It is necessary to read the detection signal of the region 301 at the position Y4 of the detection frame DF24 within the time.

従って、時刻321では、各フレームの垂直方向の位置が同一である7個の領域301ごとに、読み出しが時分割で行われる。   Therefore, at time 321, reading is performed in a time-sharing manner for each of the seven regions 301 having the same vertical position of each frame.

具体的には、時刻321において、まず、撮像フレームPF22の撮像時間内の検出フレームDF23の垂直方向の位置Y1の7個の領域301の検出信号が読み出される。そして、検出フレームDF22の位置Y2の7個の領域301の検出信号が読み出される。次に、検出フレームDF21の位置Y3の7個の領域301の検出信号が読み出される。最後に、撮像フレームPF21の撮像時間内の検出フレームDF24の位置Y4の7個の領域301の検出信号が読み出される。   Specifically, at time 321, first, the detection signals of the seven regions 301 at the position Y1 in the vertical direction of the detection frame DF23 within the imaging time of the imaging frame PF22 are read. Then, the detection signals of the seven areas 301 at the position Y2 of the detection frame DF22 are read out. Next, the detection signals of the seven areas 301 at the position Y3 of the detection frame DF21 are read out. Finally, the detection signals of the seven areas 301 at the position Y4 of the detection frame DF24 within the imaging time of the imaging frame PF21 are read out.

なお、垂直方向の位置が同一である7個の領域301ごとに読み出しを行うのではなく、各領域301の検出信号を走査線ごとにインターリーブして読み出すようにしてもよい。   Note that the detection signal of each region 301 may be interleaved and read for each scanning line instead of reading for each of the seven regions 301 having the same vertical position.

この場合、時刻321において、まず、検出フレームDF23の位置Y1の7個の領域301の1番上の走査線の検出信号が読み出される。そして、検出フレームDF22の位置Y2の7個の領域301の1番上の走査線の検出信号が読み出される。次に、検出フレームDF21の位置Y3の7個の領域301の1番上の走査線の検出信号が読み出される。そして、検出フレームDF24の位置Y4の7個の領域301の1番上の走査線の検出信号が読み出される。   In this case, at time 321, first, the detection signal of the top scanning line of the seven regions 301 at the position Y1 of the detection frame DF23 is read. Then, the detection signal of the top scanning line of the seven areas 301 at the position Y2 of the detection frame DF22 is read. Next, the detection signal of the first scanning line in the seven areas 301 at the position Y3 of the detection frame DF21 is read out. Then, the detection signal of the top scanning line of the seven areas 301 at the position Y4 of the detection frame DF24 is read out.

その後、検出フレームDF23の位置Y1の領域301に戻り、位置Y1の7個の領域301の上から2番目の走査線の検出信号が読み出される。以降も同様にして読み出しが行われ、その結果、検出フレームDF23の位置Y1、検出フレームDF22の位置Y2、検出フレームDF21の位置Y3、および検出フレームDF24の位置Y4の領域301の検出信号が読み出される。   Thereafter, the processing returns to the region 301 at the position Y1 of the detection frame DF23, and the detection signal of the second scanning line from the top of the seven regions 301 at the position Y1 is read out. Thereafter, the readout is performed in the same manner, and as a result, the detection signals in the region 301 of the position Y1 of the detection frame DF23, the position Y2 of the detection frame DF22, the position Y3 of the detection frame DF21, and the position Y4 of the detection frame DF24 are read out. .

なお、動きベクトルを検出する方法として、コーナトラッキング法が採用された場合、検出信号を部分的に読み出す第3の方法で検出信号を読み出すと、読み出される検出信号の領域にちょうどコーナが存在するとは限らない。そのため、読出対象とする検出信号の領域301は水平方向に移動されたり、垂直方向に移動されたりする。   In addition, when the corner tracking method is adopted as a method for detecting the motion vector, when the detection signal is read out by the third method of partially reading out the detection signal, a corner is just present in the read detection signal region. Not exclusively. Therefore, the detection signal area 301 to be read is moved in the horizontal direction or moved in the vertical direction.

また、撮像時間内の検出フレームは、勿論、4枚に限定されない。従って、例えば、撮像時間内の検出フレームが8枚や16枚である場合、検出信号の1フレーム当たりの読み出し時間は、撮像画像信号の1フレーム当たりの読み出し時間の1/8や1/16に削減される。   Of course, the number of detection frames within the imaging time is not limited to four. Therefore, for example, when the number of detection frames within the imaging time is 8 or 16, the readout time per frame of the detection signal is 1/8 or 1/16 of the readout time per frame of the captured image signal. Reduced.

具体的には、第1の方法では、8枚または16枚の検出フレームの検出信号が、検出フレームごとに時分割で読み出され、各検出フレームの検出信号は、8走査線や16走査線ごとに読み出される。   Specifically, in the first method, detection signals of 8 or 16 detection frames are read out in a time-sharing manner for each detection frame, and the detection signals of each detection frame are 8 scanning lines or 16 scanning lines. Read every time.

なお、図8で説明した場合と同様に、読出対象とする走査線と走査線内の読出対象とする画素を間引くようにしてもよい。この場合、撮像時間内の検出フレームの数によっては、読み出し線31や読み出し回路34等を増やさないと柔軟な読み出しができないことがある。また、間引きパターンや間引かれる画素の位置が固定されることもある。   As in the case described with reference to FIG. 8, the scanning line to be read and the pixels to be read in the scanning line may be thinned out. In this case, depending on the number of detection frames within the imaging time, flexible readout may not be possible without increasing the number of readout lines 31, readout circuits 34, and the like. In addition, the thinning pattern and the position of the thinned pixel may be fixed.

また、第2の方法では、8枚または16枚の検出フレームの検出信号が、検出フレームごとに時分割で読み出され、各検出フレームの検出信号は、垂直方向の画素数が8個または16個であるウィンドウ単位で読み出される。   In the second method, the detection signals of 8 or 16 detection frames are read out in a time division manner for each detection frame, and the detection signal of each detection frame has 8 or 16 pixels in the vertical direction. It is read in units of windows.

さらに、第3の方法では、8枚または16枚の検出フレームの検出信号が、検出フレームごとに時分割で読み出され、各検出フレームの検出信号は、設定された領域についてのみ読み出される。この領域の画面内の数Nvと領域内の垂直方向の画素数Avの関係は、撮像時間内の検出フレームの数をFnとし、画面内の全走査線数をBvとするとき、以下の式(1)で表される。   Further, in the third method, the detection signals of 8 or 16 detection frames are read out in time division for each detection frame, and the detection signals of each detection frame are read out only for the set region. The relationship between the number Nv of the region in the screen and the number of vertical pixels Av in the region is expressed as follows when the number of detection frames in the imaging time is Fn and the total number of scanning lines in the screen is Bv. It is represented by (1).

Bv=Av×Nv×Fn
・・・(1)
Bv = Av × Nv × Fn
... (1)

また、上述した説明では、検出信号の1フレーム当たりの読み出し時間を削減するために、第1乃至第3の方法を用いたが、検出信号の1フレーム当たりのデータ量を削減するために用いるようにしてもよい。例えば、画素単位で細かい動きを検出する必要がない場合には、第1乃至第3の方法を用いて、検出信号の1フレーム当たりのデータ量を削減し、信号処理部12による処理を軽減するようにしてもよい。   In the above description, the first to third methods are used to reduce the reading time of the detection signal per frame. However, the method is used to reduce the data amount of the detection signal per frame. It may be. For example, when it is not necessary to detect a fine motion in pixel units, the first to third methods are used to reduce the amount of data per frame of the detection signal and reduce the processing by the signal processing unit 12. You may do it.

次に、図13を参照して、フレーム差分部44による処理について説明する。   Next, processing performed by the frame difference unit 44 will be described with reference to FIG.

イメージセンサ11では、検出信号の読み出しを行っても、蓄積電荷はそのまま保持されるため、撮像信号の読み出しにより蓄積電荷がリセットされた後の最初の検出フレームを除いて、前の検出フレームとの差分を、現在の検出フレームの動き検出画像信号として求める必要がある。従って、フレーム差分部44は、イメージセンサ11から供給される連続する2枚の検出フレームの検出信号の差分を動き検出画像信号として求める。   In the image sensor 11, the accumulated charge is held as it is even when the detection signal is read out. Therefore, except for the first detection frame after the accumulated charge is reset by reading the imaging signal, the image sensor 11 is the same as the previous detection frame. It is necessary to obtain the difference as a motion detection image signal of the current detection frame. Accordingly, the frame difference unit 44 obtains a difference between detection signals of two consecutive detection frames supplied from the image sensor 11 as a motion detection image signal.

例えば、図13Aに示すように、フォトダイオード81(121)による受光量と検出信号の関係が線形になっている場合、フレーム差分部44では、以下のような動き検出画像信号が算出される。なお、図13において、横軸は、蓄積電荷に対応するフォトダイオード81(121)による受光量を表し、縦軸は検出信号を表している。   For example, as shown in FIG. 13A, when the relationship between the amount of light received by the photodiode 81 (121) and the detection signal is linear, the frame difference unit 44 calculates the following motion detection image signal. In FIG. 13, the horizontal axis represents the amount of light received by the photodiode 81 (121) corresponding to the accumulated charge, and the vertical axis represents the detection signal.

図13Aにおいて、例えば、ある検出フレームの検出信号は検出信号F1であり、次の検出フレームの検出信号は検出信号F2である。しかしながら、検出信号F1の読み出しは非破壊読み出しであるため、検出信号F1に対応する蓄積電荷はそのまま保持されている。従って、検出信号F2に対応する検出フレームの受光量は、その検出フレームの蓄積電荷に対応する受光量P2から、その検出フレームまでに蓄積されていた電荷に対応する受光量P1を減算した値(P2−P1)である。   In FIG. 13A, for example, the detection signal of a certain detection frame is the detection signal F1, and the detection signal of the next detection frame is the detection signal F2. However, since the reading of the detection signal F1 is nondestructive reading, the accumulated charge corresponding to the detection signal F1 is held as it is. Therefore, the received light amount of the detection frame corresponding to the detection signal F2 is a value obtained by subtracting the received light amount P1 corresponding to the charge accumulated up to the detection frame from the received light amount P2 corresponding to the accumulated charge of the detection frame ( P2-P1).

よって、フレーム差分部44では、受光量P2に対応する検出信号F2と、受光量P1に対応する検出信号F1との差分を、受光量P2に対応する検出フレームの動き検出用画像信号として求める。   Therefore, the frame difference unit 44 obtains a difference between the detection signal F2 corresponding to the received light amount P2 and the detection signal F1 corresponding to the received light amount P1 as a motion detection image signal of the detected frame corresponding to the received light amount P2.

また、図13Bに示すように、フォトダイオード81(121)による受光量と検出信号の関係が非線形になっている場合、フレーム差分部44では、図13Aで示した線形の場合と同様に、動き検出画像信号が算出される。即ち、ある検出フレームの検出信号F3と、次の検出フレームの検出信号F4との差分が、検出信号F4に対応する検出フレームの動き検出用画像信号として求められる。   Also, as shown in FIG. 13B, when the relationship between the amount of light received by the photodiode 81 (121) and the detection signal is nonlinear, the frame difference unit 44 moves in the same manner as in the linear case shown in FIG. 13A. A detected image signal is calculated. That is, the difference between the detection signal F3 of a certain detection frame and the detection signal F4 of the next detection frame is obtained as an image signal for motion detection of the detection frame corresponding to the detection signal F4.

次に、図14および図15を参照して、動きベクトルの軌跡を求める方法について説明する。   Next, a method for obtaining a motion vector locus will be described with reference to FIGS.

なお、図14および図15の例では、検出フレームのフレーム数は8枚となっている。また、図14および図15において、正方形は画素を表している。このことは、後述する図16乃至図18においても同様である。   In the example of FIGS. 14 and 15, the number of detection frames is eight. In FIGS. 14 and 15, the square represents a pixel. This also applies to FIGS. 16 to 18 described later.

まず、図14に示すように、最終の検出フレーム内の位置351の画素352について、前の連続する7枚の検出フレームでの動きベクトル(図中矢印)から、画素352と同一の被写体の画素の各検出フレームでの相対位置361乃至368を認識する。そして、図15に示すように、相対位置361乃至367を順に通り、最後に位置351を通る、スプライン関数などによって滑らかな曲線で近似された経路371が、動きベクトルの軌跡として求められる。   First, as shown in FIG. 14, for the pixel 352 at the position 351 in the final detection frame, the pixel of the same subject as the pixel 352 from the motion vectors (arrows in the figure) in the previous seven consecutive detection frames. The relative positions 361 to 368 in the respective detection frames are recognized. Then, as shown in FIG. 15, a path 371 that passes through the relative positions 361 to 367 in order and finally passes through the position 351 and is approximated by a smooth curve by a spline function or the like is obtained as a motion vector locus.

次に、図16乃至図18を参照して、動きぼけPSFを求める方法について説明する。   Next, a method for obtaining the motion blur PSF will be described with reference to FIGS.

まず、図15に示した経路371が動きベクトルの軌跡として求められた場合、その動きベクトルの軌跡に基づいて、撮像時間内において画素352と同一の被写体からの光が、経路371の各点にどのくらいの時間滞在したかが求められる。この滞在時間の長さは、各点における画素352に対応する光の滞在による受光量への影響度合に比例する。   First, when the path 371 illustrated in FIG. 15 is obtained as a motion vector trajectory, light from the same subject as the pixel 352 is captured at each point of the path 371 within the imaging time based on the motion vector trajectory. It is required how long you have stayed. The length of the stay time is proportional to the degree of influence on the amount of light received by the stay of light corresponding to the pixel 352 at each point.

即ち、動きが速いほど、つまり、ある検出フレームの相対位置から次の検出フレームの相対位置までの距離が長いほど、画素352に対応する光の滞在時間は短く、その光の滞在が及ぼす影響は少ない。そして、動きが遅いほど、つまり、ある検出フレームの相対位置から次の検出フレームの相対位置までの距離が短いほど、画素352に対応する光の滞在時間は長く、その光の滞在が及ぼす影響は大きい。   That is, the faster the movement, that is, the longer the distance from the relative position of one detection frame to the relative position of the next detection frame, the shorter the stay time of light corresponding to the pixel 352, and the influence of the stay of light is Few. The slower the movement, that is, the shorter the distance from the relative position of one detection frame to the relative position of the next detection frame, the longer the stay time of light corresponding to the pixel 352, and the influence of the stay of light is large.

そこで、経路371の各点における滞在時間が求められると、図16に示すように、その滞在時間に応じて、画面内の各画素の重みが決定され、この重みを示す関数が動きぼけPSFとして求められる。なお、図16では、画素352についての重みの総和を100と規格化したときの各画素の重みの値が、各画素を表す正方形内に記載されている。但し、画面内の空白の画素に対応する重みの値は0である。   Therefore, when the stay time at each point on the path 371 is obtained, as shown in FIG. 16, the weight of each pixel in the screen is determined according to the stay time, and the function indicating this weight is the motion blur PSF. Desired. In FIG. 16, the weight value of each pixel when the sum of the weights for the pixel 352 is normalized to 100 is shown in a square representing each pixel. However, the value of the weight corresponding to the blank pixel in the screen is 0.

なお、図16では、光学的なぼけがないものとし、光学系のPSFを理想的な点と仮定している。しかしながら、実際には光学的なぼけが存在し、光学系のPSF自体が広がりを持っている。この広がりの大きさは、画素と同レベルである場合もあるし、画素サイズ以上の場合もある。   In FIG. 16, it is assumed that there is no optical blur, and the PSF of the optical system is assumed to be an ideal point. However, optical blur is actually present, and the PSF itself of the optical system has a wide spread. The size of the spread may be the same level as the pixel or may be greater than the pixel size.

図17は、このような光学系のPSFの広がりを考慮した場合の、動きぼけPSFの求め方の概念図である。   FIG. 17 is a conceptual diagram of how to obtain the motion blur PSF when considering the spread of the PSF of the optical system.

なお、図17では、経路371を構成する各点を中心とした円391が、光学系のPSFの広がりを示している。光学系のPSFでは、一般的に、円391の中心で値が大きく、周辺に行くにしたがって減少するようになっている。この光学系のPSFの広がりを勘案して、各画素の重みが決定され、動きぼけPSFが求められる。このように、光学系のPSFの広がりを考慮することで、動きぼけをより正確に削減する動きぼけPSFを求めることができる。   In FIG. 17, a circle 391 centering on each point constituting the path 371 indicates the spread of the PSF of the optical system. In the PSF of the optical system, generally, the value is large at the center of the circle 391 and decreases as it goes to the periphery. The weight of each pixel is determined in consideration of the spread of the PSF of the optical system, and the motion blur PSF is obtained. In this way, by considering the spread of the PSF of the optical system, it is possible to obtain a motion blur PSF that more accurately reduces motion blur.

また、実際の光学系のPSFの広がり、形状は色ごとに異なるものである。通常、撮影時の解像度を最も高くするため、G成分の光学系のPSFが小さくなるように光学系が設計されるため、R成分やB成分の光学系のPSFはG成分以上の広がりを有する。   Further, the spread and shape of the PSF of the actual optical system are different for each color. Usually, the optical system is designed so that the PSF of the G component optical system becomes small in order to maximize the resolution at the time of photographing. Therefore, the PSF of the R component or B component optical system is wider than the G component. .

図18は、このような色ごとの光学系のPSFの広がりを考慮した場合の、動きぼけPSFの求め方の概念図である。   FIG. 18 is a conceptual diagram of how to obtain a motion blur PSF when considering the spread of the PSF of the optical system for each color.

図18の例では、G成分の光学系のPSFの広がり401が最も小さく、B成分の光学系のPSFの広がり402は広がり401より少し大きい。また、R成分の光学系のPSFの広がり403は最も大きい。このような各色での光学系のPSFの広がりの違いを考慮して、色ごとに動きぼけPSFが求められる。このように、色ごとに動きぼけPSFを求め、各色成分の動きぼけの削減処理に異なる動きぼけPSFを用いることにより、動きぼけの削減精度を向上させることが可能となる。   In the example of FIG. 18, the PSF spread 401 of the G component optical system is the smallest, and the PSF spread 402 of the B component optical system is slightly larger than the spread 401. Further, the PSF spread 403 of the R component optical system is the largest. Considering the difference in the spread of the PSF of the optical system for each color, a motion blurred PSF is obtained for each color. In this way, by obtaining the motion blur PSF for each color and using a different motion blur PSF for the motion blur reduction processing of each color component, it is possible to improve the motion blur reduction accuracy.

なお、光学系は一般的に軸対象であるため、光学系のPSFは一般的に点対象(軸対象)であるが、撮像面の周辺では光学系のPSFは点対象とならない場合がある。このような場合においては、被写体や撮像装置10の動きに回転成分がある場合、回転による光学系のPSFへの影響も考慮して、動きぼけPSFを求める必要がある。   Since the optical system is generally an axis object, the PSF of the optical system is generally a point object (axis object), but the PSF of the optical system may not be a point object around the imaging surface. In such a case, if there is a rotation component in the motion of the subject or the imaging device 10, it is necessary to obtain the motion blur PSF in consideration of the influence of the rotation on the PSF of the optical system.

次に、図19のフローチャートを参照して、図1の撮像装置10による画像処理について説明する。この画像処理は、例えば、ユーザにより撮像が指令されたとき、開始される。   Next, image processing by the imaging apparatus 10 in FIG. 1 will be described with reference to the flowchart in FIG. This image processing is started, for example, when imaging is instructed by the user.

ステップS11において、撮像部21は、外部からの光を画素単位で光電変換し、電荷の蓄積を開始する。ステップS12において、撮像部21は、検出用垂直走査回路29により選択された制御線30に対応する、撮像時間より短い時間内に画素単位で蓄積された電荷を、検出信号として非破壊で読み出す。この検出信号は、検出用カラム並列ADC32によりデジタル信号に変換され、読み出し回路34および信号線35を介して信号処理部12に出力される。   In step S <b> 11, the imaging unit 21 photoelectrically converts light from the outside in units of pixels and starts accumulating charges. In step S <b> 12, the imaging unit 21 reads non-destructively, as a detection signal, the charge accumulated in units of pixels corresponding to the control line 30 selected by the detection vertical scanning circuit 29 within a time shorter than the imaging time. This detection signal is converted into a digital signal by the detection column parallel ADC 32 and output to the signal processing unit 12 via the readout circuit 34 and the signal line 35.

ステップS13において、信号処理部12のフレーム差分部44は、読み出し回路32から信号線35を介して供給される連続する2枚の検出フレームの検出信号の画素ごとの差分を、動き検出画像信号として求める。そして、フレーム差分部44は、この動き検出画像信号を、信号線45を介してノイズリダクション部46に供給する。   In step S <b> 13, the frame difference unit 44 of the signal processing unit 12 uses the difference for each pixel of the detection signals of two consecutive detection frames supplied from the readout circuit 32 via the signal line 35 as a motion detection image signal. Ask. Then, the frame difference unit 44 supplies the motion detection image signal to the noise reduction unit 46 via the signal line 45.

なお、読み出し回路32から、最初の検出フレームの検出信号だけが供給されている場合、ステップS13乃至S16の処理はスキップする。   Note that when only the detection signal of the first detection frame is supplied from the readout circuit 32, the processing of steps S13 to S16 is skipped.

ステップS14において、ノイズリダクション部46は、フレーム差分部44から供給される動き検出画像信号のノイズレベルを低減し、その結果得られる動き検出画像信号を、信号線47を介して動き検出部48に供給する。   In step S <b> 14, the noise reduction unit 46 reduces the noise level of the motion detection image signal supplied from the frame difference unit 44, and transmits the resulting motion detection image signal to the motion detection unit 48 via the signal line 47. Supply.

ステップS15において、動き検出部48は、ノイズリダクション部46から供給される動き検出画像信号に基づいて、その動き検出画像信号に対応する動き検出用画像における各サンプリング点の動きベクトルを検出する。そして、動き検出部48は、検出された各サンプリング点の動きベクトルを、信号線49を介して動きベクトル場生成部50に供給する。   In step S <b> 15, based on the motion detection image signal supplied from the noise reduction unit 46, the motion detection unit 48 detects a motion vector at each sampling point in the motion detection image corresponding to the motion detection image signal. Then, the motion detector 48 supplies the detected motion vector of each sampling point to the motion vector field generator 50 via the signal line 49.

ステップS16において、動きベクトル場生成部50は、動き検出部48から供給される各サンプリング点の動きベクトルに基づいて、画面内の全ての点の動きベクトルを演繹し、補間する。そして、動きベクトル場生成部50は、補間の結果得られる画面内の全ての点の動きベクトルを、信号線51を介して軌跡補間部52に供給する。   In step S <b> 16, the motion vector field generation unit 50 deduces and interpolates the motion vectors of all points on the screen based on the motion vectors of the respective sampling points supplied from the motion detection unit 48. Then, the motion vector field generation unit 50 supplies the motion vectors of all points in the screen obtained as a result of the interpolation to the trajectory interpolation unit 52 via the signal line 51.

ステップS17において、検出用垂直走査回路29は、所定数(図6の例では4枚)の検出フレームの検出信号が読み出されたかを判定する。ステップS17で、まだ所定数の検出フレームの検出信号が読み出されていないと判定された場合、処理はステップS12に戻り、上述した処理が繰り返される。   In step S <b> 17, the detection vertical scanning circuit 29 determines whether the detection signals of a predetermined number (in the example of FIG. 6) of detection frames have been read. If it is determined in step S17 that the detection signals of the predetermined number of detection frames have not yet been read, the process returns to step S12 and the above-described process is repeated.

一方、ステップS17で所定数の検出フレームの検出信号が読み出されたと判定された場合、処理はステップS18に進み、軌跡補間部52は、動きベクトル場生成部50から供給される、連続する所定数の各動き検出用画像内の全ての点の動きベクトルに基づいて、スプライン関数などによって、その動き検出用画像に対応する撮像画像内の被写体の動きの軌跡を求める。そして、軌跡補間部52は、求められた動きの軌跡を、信号線53を介してPSF生成部54に供給する。   On the other hand, when it is determined in step S17 that the detection signals of the predetermined number of detection frames have been read, the process proceeds to step S18, and the trajectory interpolation unit 52 is supplied from the motion vector field generation unit 50 and is continuously predetermined. Based on the motion vectors of all the points in each of the motion detection images, the motion trajectory of the subject in the captured image corresponding to the motion detection image is obtained by a spline function or the like. Then, the trajectory interpolation unit 52 supplies the obtained motion trajectory to the PSF generation unit 54 via the signal line 53.

ステップS19において、PSF生成部54は、軌跡補間部52から供給される動きベクトルの軌跡と、光学PSFデータメモリ55から供給される光学PSFデータとに基づいて、動きぼけPSFを求める。これにより、動きぼけと光学系によるぼけの状況を表すPSFが、動きぼけPSFとして求められる。そして、PSF生成部54は、求められた動きぼけPSFを表す動きぼけPSFデータを、信号線57を介して動きぼけ削減部59に供給する。   In step S <b> 19, the PSF generation unit 54 obtains a motion blur PSF based on the motion vector trajectory supplied from the trajectory interpolation unit 52 and the optical PSF data supplied from the optical PSF data memory 55. As a result, a PSF representing the motion blur and the blur situation caused by the optical system is obtained as the motion blur PSF. Then, the PSF generation unit 54 supplies motion blur PSF data representing the obtained motion blur PSF to the motion blur reduction unit 59 via the signal line 57.

ステップS20において、撮像部21は、画像用垂直走査回路22により選択された制御線23に対応する、撮像時間内に画素単位で蓄積された電荷に対応する信号を、撮像画像信号として読み出す。この撮像画像信号は、バッファメモリ43に供給されて保持される。ステップS21において、撮像部21は、蓄積電荷をリセットする。   In step S20, the imaging unit 21 reads a signal corresponding to the charge accumulated in units of pixels within the imaging time corresponding to the control line 23 selected by the image vertical scanning circuit 22 as a captured image signal. This captured image signal is supplied to and held in the buffer memory 43. In step S21, the imaging unit 21 resets the accumulated charge.

ステップS22において、動きぼけ削減部59は、PSF生成部54から供給される動きぼけPSFデータを用いて、バッファメモリ43に記憶されている撮像画像信号の動きぼけを削減する。   In step S <b> 22, the motion blur reduction unit 59 uses the motion blur PSF data supplied from the PSF generation unit 54 to reduce motion blur of the captured image signal stored in the buffer memory 43.

具体的には、撮像画像信号に対して、動きぼけPSFに対応するぼけの問題の逆問題をそのまま解くとノイズの影響で、撮像画像信号の画面が大きく乱れたり、画面のエッジ部分周辺で強いアーティファクトが発生したりする。そのため、この問題を低減しながら良好な動きぼけの削減を実現するために、動きぼけ削減部59は、WienerフィルタやRichardson-Lucy法などにより、動きぼけPSFを用いた動きぼけの削減を行う。例えば、動きぼけ削減部59は、動きぼけPSFをウィンドウとして使用してWienerフィルタを作成し、撮像画像信号の動きぼけを削減する。   Specifically, if the inverse problem of the blur problem corresponding to motion blur PSF is solved as it is for the captured image signal, the screen of the captured image signal is greatly disturbed by the influence of noise or strong around the edge of the screen Artifacts may occur. For this reason, in order to achieve a good reduction in motion blur while reducing this problem, the motion blur reduction unit 59 reduces motion blur using a motion blur PSF by a Wiener filter, a Richardson-Lucy method, or the like. For example, the motion blur reduction unit 59 creates a Wiener filter using the motion blur PSF as a window, and reduces motion blur of the captured image signal.

ステップS23において、撮像部21は、撮像を終了するかどうか、例えば、ユーザにより撮像の終了が指令されたかどうかを判定する。ステップS23で撮像を終了しないと判定された場合、処理はステップS11に戻り、上述した処理が繰り返される。一方、ステップS23で撮像を終了すると判定された場合、処理は終了する。   In step S23, the imaging unit 21 determines whether or not to end imaging, for example, whether or not the user has instructed to end imaging. If it is determined in step S23 that the imaging is not finished, the process returns to step S11, and the above-described process is repeated. On the other hand, if it is determined in step S23 that the imaging is to be ended, the process ends.

なお、図1の撮像装置10では、検出用垂直走査回路29と画像用垂直走査回路22が別々に設けられたが、検出用垂直走査回路29と画像用垂直走査回路22は共通化されてもよい。   1, the detection vertical scanning circuit 29 and the image vertical scanning circuit 22 are provided separately, but the detection vertical scanning circuit 29 and the image vertical scanning circuit 22 may be shared. Good.

図20は、このような場合のイメージセンサ11の詳細構成例を示している。   FIG. 20 shows a detailed configuration example of the image sensor 11 in such a case.

図20のイメージセンサ11は、画像用カラム並列ADC25、読み出し回路27および34、検出用カラム並列ADC32、撮像部451、垂直走査回路452、制御線453、読み出し線454などにより構成される。   20 includes an image column parallel ADC 25, readout circuits 27 and 34, a detection column parallel ADC 32, an imaging unit 451, a vertical scanning circuit 452, a control line 453, a readout line 454, and the like.

なお、図20では、説明の便宜上、図示は省略するが、イメージセンサ11にはカラーフィルタ21Aも設けられる。また、図20では、説明の便宜上、撮像部451のうちの1画素分の構成、即ち1画素を撮像する画素部の構成について図示してある。図20において、図1と同一のものには同一の符号を付してあり、説明は繰り返しになるので省略する。   In FIG. 20, for convenience of explanation, illustration is omitted, but the image sensor 11 is also provided with a color filter 21 </ b> A. In FIG. 20, for convenience of explanation, the configuration of one pixel in the imaging unit 451, that is, the configuration of a pixel unit that images one pixel is illustrated. In FIG. 20, the same components as those in FIG.

図20に示すように、撮像部451内の1画素を撮像する画素部460は、図3の撮像画像読出部122と検出用画像読出部123を共通化したものである。具体的には、画素部460には、光電変換を行うフォトダイオード461が設けられ、このフォトダイオード461には、MOSトランジスタ462のバックゲート463が接続されている。また、MOSトランジスタ462のソースは電源464に、ゲートは制御線453に、ドレインは読み出し線454にそれぞれ接続されている。   As shown in FIG. 20, a pixel unit 460 that images one pixel in the imaging unit 451 is obtained by sharing the captured image reading unit 122 and the detection image reading unit 123 of FIG. 3. Specifically, the pixel portion 460 is provided with a photodiode 461 that performs photoelectric conversion, and the back gate 463 of the MOS transistor 462 is connected to the photodiode 461. The source of the MOS transistor 462 is connected to the power supply 464, the gate is connected to the control line 453, and the drain is connected to the readout line 454.

以上のように構成される画素部460では、フォトダイオード461で発生した電荷がバックゲート463に蓄積される。垂直走査回路452は、画素部460の検出信号または撮像画像信号を読み出す際、制御線453を選択し、制御線453を介してMOSトランジスタ462のゲートに検出用読み出し信号または撮像用読み出し信号を印加する。これにより、MOSトランジスタ462がオンになり、その結果、バックゲート463に蓄積された電荷量に依存した信号が、検出信号または撮像画像信号として、読み出し線454を介して出力される。   In the pixel portion 460 configured as described above, charges generated in the photodiode 461 are accumulated in the back gate 463. When the vertical scanning circuit 452 reads the detection signal or the captured image signal of the pixel portion 460, the vertical scanning circuit 452 selects the control line 453 and applies the detection readout signal or the imaging readout signal to the gate of the MOS transistor 462 via the control line 453. To do. As a result, the MOS transistor 462 is turned on, and as a result, a signal depending on the amount of charge accumulated in the back gate 463 is output via the readout line 454 as a detection signal or a captured image signal.

即ち、制御線453は、図3の制御線30と23が共通化されたものであり、読み出し線454は、図3の読み出し線31と24が共通化されたものである。   That is, the control line 453 is obtained by sharing the control lines 30 and 23 shown in FIG. 3, and the read line 454 is obtained by sharing the read lines 31 and 24 shown in FIG.

以上のように、図20のイメージセンサ11では、図1の検出用垂直走査回路29と画像用垂直走査回路22が共通化されるので、撮像画像読出部122と検出用画像読出部123、制御線30と23、読み出し線31と24もそれぞれ共通化され、回路規模を削減することができる。   As described above, in the image sensor 11 of FIG. 20, since the detection vertical scanning circuit 29 and the image vertical scanning circuit 22 of FIG. 1 are shared, the captured image reading unit 122, the detection image reading unit 123, and the control The lines 30 and 23 and the readout lines 31 and 24 are also shared, so that the circuit scale can be reduced.

但し、図20に示したように、図1の検出用垂直走査回路29と画像用垂直走査回路22が共通化される場合には、検出信号の読み出しのタイミングが、撮像画像信号の読み出しのタイミングと重ならないようにする必要がある。これに対して、図1に示したように、検出用垂直走査回路29と画像用垂直走査回路22が別々に設けられる場合、検出信号の読み出しと撮像画像信号の読み出しをそれぞれ独立に行うことが可能であり、読み出し動作の柔軟性を保つことができる。   However, as shown in FIG. 20, when the detection vertical scanning circuit 29 and the image vertical scanning circuit 22 in FIG. 1 are shared, the detection signal readout timing is the readout timing of the captured image signal. It is necessary not to overlap. On the other hand, as shown in FIG. 1, when the detection vertical scanning circuit 29 and the image vertical scanning circuit 22 are provided separately, reading of the detection signal and reading of the captured image signal can be performed independently. This is possible and the flexibility of the read operation can be maintained.

以上のように、イメージセンサ11は、1フレームの撮像時間内に検出信号を複数回非破壊で読み出し、1フレームの撮像時間ごとに撮像画像信号を読み出すので、撮像画像信号を取得するイメージセンサ11を用いて、撮像画像内の被写体の動きを精度良く検出することができる。   As described above, the image sensor 11 reads the detection signal a plurality of times in a non-destructive manner within the imaging time of one frame, and reads out the captured image signal every imaging time of one frame. Therefore, the image sensor 11 acquires the captured image signal. Can be used to accurately detect the movement of the subject in the captured image.

これに対して、上述した非特許文献1には、1つのイメージセンサを用いて、周辺の画素を動き検出に使用する例について記載されているが、この場合、動きの検出領域が限定されてしまい、動きを精度良く検出することは難しい。   In contrast, Non-Patent Document 1 described above describes an example in which one image sensor is used and peripheral pixels are used for motion detection. However, in this case, the motion detection area is limited. Therefore, it is difficult to accurately detect the movement.

また、撮像装置10は、検出信号を非破壊で読み出すので、撮像画像信号そのものを劣化させることがない。さらに、撮像装置10は、検出信号を非破壊で読み出すので、様々な読み出し動作(パターン)に対応することができる。そのため、推定される撮像場所や撮像画像の時間的な変化によって、検出信号の読み出し方法や動き検出のアルゴリズムを適応的に変化させ、高精度の動きぼけの削減を実現することができる。   Moreover, since the imaging device 10 reads the detection signal nondestructively, the captured image signal itself is not deteriorated. Furthermore, since the imaging device 10 reads the detection signal nondestructively, it can cope with various read operations (patterns). Therefore, it is possible to adaptively change the detection signal reading method and the motion detection algorithm according to the estimated imaging location and the temporal change of the captured image, and to realize highly accurate motion blur reduction.

また、イメージセンサ11において、検出信号の読み出し用に追加されるハードウェアは、検出用画像読出部83(123)、検出用垂直走査回路29、検出用カラム並列ADC32、読み出し回路34などであり、ハードウェアの増加は少ない。   Further, in the image sensor 11, hardware added for reading the detection signal is a detection image reading unit 83 (123), a detection vertical scanning circuit 29, a detection column parallel ADC 32, a reading circuit 34, and the like. There is little increase in hardware.

なお、イメージセンサ11としては、CMOSイメージセンサではなく、CCDイメージセンサを用いるようにしてもよい。この場合、イメージセンサ11のフォトダイオードに蓄積された電荷は読み出しゲートにより、画面内全域で同時に垂直転送CCDへ移動されるため、各フレームにおいて、電荷の蓄積期間は同一となる。これを撮像の際の電荷蓄積時間の同時性と呼ぶ。   The image sensor 11 may be a CCD image sensor instead of a CMOS image sensor. In this case, the charges accumulated in the photodiodes of the image sensor 11 are simultaneously moved to the vertical transfer CCD over the entire area of the screen by the readout gate, so that the charge accumulation period is the same in each frame. This is called simultaneity of charge accumulation time during imaging.

また、イメージセンサ11としてCCDイメージセンサが用いられる場合、電荷蓄積時間の同時性があるため、CMOSイメージセンサが用いられた場合のように、画像のゆがみの問題(詳細は後述する)、図5で説明した露光時間が比較的短い場合の問題、図6で説明した複数の検出フレームを同時に読み出す必要がある問題等は発生しない。   Further, when a CCD image sensor is used as the image sensor 11, there is a simultaneous charge accumulation time. Therefore, as in the case where a CMOS image sensor is used, the problem of image distortion (details will be described later), FIG. The problem in the case where the exposure time is relatively short as described in (4), the problem in which a plurality of detection frames described in FIG.

なお、画像のゆがみの問題とは、イメージセンサ11がCMOSイメージセンサである場合に発生する問題である。詳細には、CMOSイメージセンサは、画面の上の走査線から順次走査線ごとに読み出しを行うので、読み出しのタイミングが走査線ごとに異なる。そのため、電荷の蓄積タイミングも走査線ごとに異なる。従って、イメージセンサ11がCMOSイメージセンサである場合、イメージセンサ11で速い動きの物体を撮像すると、画面の上部と下部で撮像のタイミングが異なり、画像のゆがみが発生することがある。   The image distortion problem is a problem that occurs when the image sensor 11 is a CMOS image sensor. Specifically, since the CMOS image sensor sequentially reads out each scanning line from the scanning line on the screen, the readout timing differs for each scanning line. Therefore, the charge accumulation timing is also different for each scanning line. Therefore, when the image sensor 11 is a CMOS image sensor, when an image of a fast-moving object is imaged by the image sensor 11, the imaging timing is different between the upper part and the lower part of the screen, and image distortion may occur.

また、上述した説明では、撮像画像信号と検出信号の読み出しレートは同一であるものとしたが、異なっていてもよい。但し、撮像画像信号と検出信号の読み出しレートが同一ではない場合、撮像画像信号の読み出しを行ってから、即ち画素部80(120)の蓄積電荷がリセットされてから、検出信号が読み出されるまでの時間が、画面の位置によって異なる。従って、信号処理部12による処理において、この点を考慮する必要がある。なお、長時間露光の際などには、この点による問題は少なくなる。   In the above description, the read rate of the captured image signal and the detection signal is the same, but may be different. However, when the readout rate of the captured image signal and the detection signal is not the same, after the readout of the captured image signal, that is, after the accumulated charge of the pixel unit 80 (120) is reset, the detection signal is read out. Time varies depending on the position of the screen. Therefore, this point needs to be considered in the processing by the signal processing unit 12. It should be noted that the problem due to this point is reduced during long exposure.

本発明は、例えばデジタルスチルカメラやビデオカメラに適用することができる。   The present invention can be applied to, for example, a digital still camera and a video camera.

なお、本明細書において、図19の画像処理は、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   Note that in this specification, the image processing of FIG. 19 is not limited to processing performed in time series in the order described, but also processing executed in parallel or individually even if not necessarily time-series processing. Is also included.

また、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。   The embodiments of the present invention are not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention.

本発明を適用した撮像装置の一実施の形態の構成例を示すブロック図である。It is a block diagram which shows the structural example of one Embodiment of the imaging device to which this invention is applied. 撮像部の詳細構成例を示す図である。It is a figure which shows the detailed structural example of an imaging part. 撮像部21の他の詳細構成例を示す図である。It is a figure which shows the other detailed structural example of the imaging part. 長時間露光を行う場合の読み出しタイミングについて示す図である。It is a figure shown about the read-out timing in the case of performing long time exposure. 比較的短時間の露光を行う場合の読み出しタイミングについて示す図である。It is a figure shown about the read-out timing in the case of performing exposure for a comparatively short time. 検出信号のフレームレートが高い場合に必要とされる読み出しタイミングについて説明する図である。It is a figure explaining the read-out timing required when the frame rate of a detection signal is high. 第1の方法について説明する図である。It is a figure explaining a 1st method. 第1の方法の他の方法について説明する図である。It is a figure explaining other methods of the 1st method. 第2の方法について説明する図である。It is a figure explaining the 2nd method. 第2の方法を用いて読み出しを行う場合の読み出し回路の詳細構成例を示す図である。It is a figure which shows the detailed structural example of the reading circuit in the case of performing reading using a 2nd method. 第3の方法について説明する図である。It is a figure explaining the 3rd method. 第3の方法を用いた場合の検出信号の読み出しタイミングについて説明する図である。It is a figure explaining the read-out timing of the detection signal at the time of using a 3rd method. フレーム差分部による処理について説明する図である。It is a figure explaining the process by a frame difference part. 全検出フレームの動きベクトルを示す図である。It is a figure which shows the motion vector of all the detection frames. 動きベクトルの軌跡を示す図である。It is a figure which shows the locus | trajectory of a motion vector. 動きぼけPSFを求める方法について説明する図である。It is a figure explaining the method of calculating | requiring motion blur PSF. 光学系のPSFの広がりを考慮した場合の、動きぼけPSFの求め方の概念図である。It is a conceptual diagram of how to obtain a motion blur PSF when considering the spread of the PSF of the optical system. 色ごとの光学系のPSFの広がりを考慮した場合の、動きぼけPSFの求め方の概念図である。It is a conceptual diagram of how to obtain a motion blurred PSF when considering the spread of the PSF of the optical system for each color. 画像処理について説明するフローチャートである。It is a flowchart explaining an image process. イメージセンサの他の詳細構成例を示す図である。It is a figure which shows the other detailed structural example of an image sensor.

符号の説明Explanation of symbols

21 撮像部, 22 画像用垂直走査回路, 29 検出用垂直走査回路, 52 軌跡補間部, 59 動きぼけ削減部, 81 フォトダイオード, 82 撮像画像読出部, 83 検出用画像読出部, 103 バックゲート, 121 フォトダイオード, 122 撮像画像読出部, 123 検出用画像読出部, 133,143 バックゲート, 451 撮像部, 452 垂直走査回路, 461 フォトダイオード, 463 バックゲート   DESCRIPTION OF SYMBOLS 21 Image pick-up part, 22 Image vertical scanning circuit, 29 Detection vertical scanning circuit, 52 Trajectory interpolation part, 59 Motion blur reduction part, 81 Photodiode, 82 Image pick-up image reading part, 83 Image reading part for detection, 103 Back gate, 121 Photodiode, 122 Captured Image Reading Unit, 123 Detection Image Reading Unit, 133,143 Backgate, 451 Imaging Unit, 452 Vertical Scan Circuit, 461 Photodiode, 463 Backgate

Claims (9)

外部からの光を画素単位で光電変換する光電変換手段と、
前記光電変換手段により得られた電荷を画素単位で蓄積する蓄積手段と、
1フレームの撮像時間内に、前記蓄積手段により蓄積されている電荷に対応する信号を直後に撮像される撮像画像内の被写体の動きを検出するための検出信号として、複数回非破壊で読み出す検出信号読出手段と、
1フレームの撮像時間ごとに、前記蓄積手段により蓄積されている電荷に対応する信号を、撮像画像信号として読み出す撮像画像信号読出手段と
を備える撮像装置。
Photoelectric conversion means for photoelectrically converting light from the outside in units of pixels;
Accumulation means for accumulating charges obtained by the photoelectric conversion means in units of pixels;
Detection in which a signal corresponding to the electric charge accumulated by the accumulating means is read out in a non-destructive manner a plurality of times as a detection signal for detecting a motion of a subject in a picked-up image picked up immediately after one frame of image pickup time Signal reading means;
An imaging apparatus comprising: a captured image signal reading unit that reads out a signal corresponding to the charge accumulated by the accumulation unit as a captured image signal every imaging time of one frame.
前記検出信号読出手段の読み出しを制御する検出信号読出制御手段と、
前記撮像画像信号読出手段の読み出しを制御する撮像画像信号読出制御手段と
をさらに備え、
前記検出信号読出手段と前記撮像画像信号読出手段は、それぞれ、少なくとも1つのトランジスタを有し、
前記蓄積手段は、前記検出信号読出手段または前記撮像画像信号読出手段の前記トランジスタのバックゲートであり、
前記検出信号読出手段は、前記撮像画像信号読出制御手段が、前記撮像画像信号読出手段の前記トランジスタのゲートに電位を与えることにより、前記検出信号読出手段の前記トランジスタのバックゲートに前記電荷を蓄積させるとともに、前記検出信号読出制御手段が、前記検出信号読出手段の前記トランジスタのゲートに電位を与える場合、前記検出信号読出手段の前記トランジスタの前記バックゲートに蓄積された前記電荷に対応する信号を、前記検出信号として出力することにより、前記検出信号の非破壊読み出しを行い、
前記撮像画像信号読出手段は、前記検出信号読出制御手段が、前記検出信号読出手段の前記トランジスタのゲートに電位を与えることにより、前記撮像画像信号読出手段の前記トランジスタのバックゲートに前記電荷を蓄積させるとともに、前記撮像画像信号読出制御手段が、前記撮像画像信号読出手段の前記トランジスタのゲートに電位を与える場合、前記撮像画像信号読出手段の前記トランジスタの前記バックゲートに蓄積された前記電荷に対応する信号を、前記撮像画像信号として出力することにより、前記撮像画像信号の非破壊読み出しを行う
請求項1に記載の撮像装置。
Detection signal reading control means for controlling reading of the detection signal reading means;
And a captured image signal readout control means for controlling readout of the captured image signal readout means,
Each of the detection signal reading means and the captured image signal reading means has at least one transistor,
The storage means is a back gate of the transistor of the detection signal reading means or the captured image signal reading means,
The detection signal readout means accumulates the electric charge in the back gate of the transistor of the detection signal readout means by the potential of the captured image signal readout control means applying a potential to the gate of the transistor of the captured image signal readout means. And when the detection signal reading control means applies a potential to the gate of the transistor of the detection signal reading means, a signal corresponding to the charge accumulated in the back gate of the transistor of the detection signal reading means is provided. , Nondestructive readout of the detection signal by outputting as the detection signal,
The picked-up image signal reading means stores the charge on the back gate of the transistor of the picked-up image signal reading means by the detection signal reading control means applying a potential to the gate of the transistor of the detection signal reading means. In addition, when the captured image signal readout control unit applies a potential to the gate of the transistor of the captured image signal readout unit, it corresponds to the charge accumulated in the back gate of the transistor of the captured image signal readout unit. The imaging apparatus according to claim 1, wherein non-destructive readout of the captured image signal is performed by outputting a signal to be performed as the captured image signal.
前記検出信号読出手段および前記撮像画像信号読出手段の読み出しを制御する読出制御手段
をさらに備え、
前記検出信号読出手段と前記撮像画像信号読出手段は、共通の1つのトランジスタを有し、
前記蓄積手段は、前記トランジスタのバックゲートであり、
前記読出制御手段が前記トランジスタのゲートに電位を与える場合、前記検出信号読出手段が、前記バックゲートに蓄積された前記電荷に対応する信号を、前記検出信号として出力することにより、前記検出信号の非破壊読み出しを行うか、または、前記撮像画像信号読出手段が、前記バックゲートに蓄積された前記電荷に対応する信号を、前記撮像画像信号として出力することにより、前記撮像画像信号の非破壊読み出しを行う
請求項1に記載の撮像装置。
Read control means for controlling reading of the detection signal read means and the captured image signal read means,
The detection signal reading means and the captured image signal reading means have one common transistor,
The storage means is a back gate of the transistor;
When the readout control unit applies a potential to the gate of the transistor, the detection signal readout unit outputs a signal corresponding to the charge accumulated in the back gate as the detection signal, so that the detection signal Non-destructive readout of the captured image signal is performed by performing non-destructive readout or by outputting a signal corresponding to the charge accumulated in the back gate as the captured image signal. The imaging device according to claim 1.
前記検出信号読出手段の読み出しを制御する検出信号読出制御手段と、
前記撮像画像信号読出手段の読み出しを制御する撮像画像信号読出制御手段と
をさらに備え、
前記検出信号読出手段と前記撮像画像信号読出手段は、それぞれ、少なくとも1つのトランジスタを有し、
前記蓄積手段は、前記検出信号読出手段の前記トランジスタのバックゲートであり、
前記検出信号読出手段は、前記検出信号読出制御手段が、前記検出信号読出手段の前記トランジスタのゲートに電位を与える場合、そのトランジスタの前記バックゲートに蓄積された前記電荷に対応する信号を、前記検出信号として出力することにより、前記検出信号の非破壊読み出しを行い、
前記撮像画像信号読出手段は、前記撮像画像信号読出制御手段が、前記撮像画像信号読出手段の前記トランジスタのゲートに電位を与える場合、前記バックゲートに蓄積された電荷を破壊し、その電荷に対応する信号を前記撮像画像信号として出力することにより、前記撮像画像信号の読み出しを行う
請求項1に記載の撮像装置。
Detection signal reading control means for controlling reading of the detection signal reading means;
And a captured image signal readout control means for controlling readout of the captured image signal readout means,
Each of the detection signal reading means and the captured image signal reading means has at least one transistor,
The storage means is a back gate of the transistor of the detection signal reading means;
When the detection signal reading control unit applies a potential to the gate of the transistor of the detection signal reading unit, the detection signal reading unit outputs a signal corresponding to the charge accumulated in the back gate of the transistor. By outputting as a detection signal, non-destructive reading of the detection signal is performed,
The captured image signal reading means destroys the charge accumulated in the back gate and responds to the charge when the captured image signal read control means applies a potential to the gate of the transistor of the captured image signal read means. The imaging apparatus according to claim 1, wherein the captured image signal is read out by outputting a signal to be performed as the captured image signal.
前記検出信号読出手段は、前記蓄積手段により蓄積されている画素単位の前記電荷のうちの、一部の画素の電荷に対応する信号を前記検出信号として読み出す
請求項1に記載の撮像装置。
The imaging apparatus according to claim 1, wherein the detection signal reading unit reads, as the detection signal, a signal corresponding to a charge of a part of pixels among the charges in pixel units accumulated by the accumulation unit.
前記検出信号を用いて、前記直後に撮像される撮像画像内の前記被写体の動きを検出する検出手段と、
前記検出手段により検出された前記被写体の動きと、前記撮像画像信号とに基づいて、前記撮像画像信号から動きぼけを削減する削減手段と
をさらに備える
請求項1に記載の撮像装置。
Detecting means for detecting movement of the subject in a captured image captured immediately after the detection signal using the detection signal;
The imaging apparatus according to claim 1, further comprising: a reduction unit that reduces motion blur from the captured image signal based on the movement of the subject detected by the detection unit and the captured image signal.
前記検出手段は、前記撮像画像の画面を走査ライン単位で複数の領域に分割し、各領域の撮像時間内の前記撮像画像内の前記被写体の動きを検出する
請求項6に記載の撮像装置。
The imaging apparatus according to claim 6, wherein the detection unit divides the screen of the captured image into a plurality of areas in units of scanning lines, and detects the movement of the subject in the captured image within the imaging time of each area.
前記削減手段は、前記被写体の動き、前記撮像画像信号、および、前記外部からの光を集光する光学系のSPFに基づいて、前記撮像画像信号から動きぼけを削減する
請求項6に記載の撮像装置。
7. The motion blur is reduced from the captured image signal based on the movement of the subject, the captured image signal, and an SPF of an optical system that collects light from the outside. Imaging device.
撮像装置が、
外部からの光を画素単位で光電変換する光電変換ステップと、
前記光電変換ステップの処理により得られた電荷を画素単位で蓄積する蓄積ステップと、
1フレームの撮像時間内に、前記蓄積ステップの処理により蓄積されている電荷に対応する信号を直後に撮像される撮像画像内の被写体の動きを検出するための検出信号として、複数回非破壊で読み出す検出信号読出ステップと、
1フレームの撮像時間ごとに、前記蓄積ステップの処理により蓄積されている電荷に対応する信号を、撮像画像信号として読み出す撮像画像信号読出ステップと
を含む撮像方法。
The imaging device
A photoelectric conversion step for photoelectrically converting light from the outside in units of pixels;
An accumulation step for accumulating charges obtained by the photoelectric conversion step in units of pixels;
A signal corresponding to the charge accumulated by the processing of the accumulation step is detected non-destructively a plurality of times as a detection signal for detecting the movement of the subject in the captured image captured immediately after the image capturing time of one frame. A detection signal reading step for reading;
An imaging method including a captured image signal reading step of reading out a signal corresponding to the charge accumulated by the processing of the accumulation step as a captured image signal every imaging time of one frame.
JP2008240336A 2008-09-19 2008-09-19 Imaging apparatus and imaging method Withdrawn JP2010074584A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008240336A JP2010074584A (en) 2008-09-19 2008-09-19 Imaging apparatus and imaging method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008240336A JP2010074584A (en) 2008-09-19 2008-09-19 Imaging apparatus and imaging method

Publications (1)

Publication Number Publication Date
JP2010074584A true JP2010074584A (en) 2010-04-02

Family

ID=42205942

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008240336A Withdrawn JP2010074584A (en) 2008-09-19 2008-09-19 Imaging apparatus and imaging method

Country Status (1)

Country Link
JP (1) JP2010074584A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012004928A1 (en) * 2010-07-08 2012-01-12 パナソニック株式会社 Image capture device
JP2012242759A (en) * 2011-05-23 2012-12-10 Canon Inc Imaging apparatus, control method therefor, and program
WO2014069212A1 (en) * 2012-10-29 2014-05-08 Sekine Hirokazu Motion detection solid-state image pickup device and motion detection system
JP2015019388A (en) * 2014-08-26 2015-01-29 関根 弘一 Imaging apparatus for motion detection, motion detection camera, and motion detection system
JP2015198367A (en) * 2014-04-01 2015-11-09 キヤノン株式会社 Imaging apparatus and image processing system
JP2016213600A (en) * 2015-05-01 2016-12-15 キヤノン株式会社 CONTROL DEVICE, OPTICAL DEVICE, CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP2017538360A (en) * 2014-12-15 2017-12-21 ジーブイビービー ホールディングス エス.エイ.アール.エル. Image capture with improved temporal resolution and perceived image sharpness
WO2018124054A1 (en) * 2016-12-27 2018-07-05 パナソニックIpマネジメント株式会社 Imaging device and method for controlling same
JP2021044623A (en) * 2019-09-06 2021-03-18 キヤノン株式会社 Imaging apparatus and control method for the same
JP2021108784A (en) * 2020-01-07 2021-08-02 キヤノンメディカルシステムズ株式会社 X-ray diagnostic apparatus
US11678081B2 (en) 2020-02-05 2023-06-13 Panasonic Intellectual Property Managevent Co., Ltd. Imaging device and image processing method

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012004928A1 (en) * 2010-07-08 2012-01-12 パナソニック株式会社 Image capture device
JP4917193B2 (en) * 2010-07-08 2012-04-18 パナソニック株式会社 Imaging device
CN102742278A (en) * 2010-07-08 2012-10-17 松下电器产业株式会社 camera device
US8605168B2 (en) 2010-07-08 2013-12-10 Panasonic Corporation Image capture device with frame rate correction section and image generation method
CN102742278B (en) * 2010-07-08 2015-08-12 松下电器产业株式会社 camera device
JP2012242759A (en) * 2011-05-23 2012-12-10 Canon Inc Imaging apparatus, control method therefor, and program
WO2014069212A1 (en) * 2012-10-29 2014-05-08 Sekine Hirokazu Motion detection solid-state image pickup device and motion detection system
US9924076B2 (en) 2012-10-29 2018-03-20 Setech Co., Ltd. Motion detection solid-state image capturing device and motion detection system
JP2015198367A (en) * 2014-04-01 2015-11-09 キヤノン株式会社 Imaging apparatus and image processing system
US10536679B2 (en) 2014-04-01 2020-01-14 Canon Kabushiki Kaisha Imaging apparatus and image processing system having stacked structure
JP2015019388A (en) * 2014-08-26 2015-01-29 関根 弘一 Imaging apparatus for motion detection, motion detection camera, and motion detection system
JP2017538360A (en) * 2014-12-15 2017-12-21 ジーブイビービー ホールディングス エス.エイ.アール.エル. Image capture with improved temporal resolution and perceived image sharpness
JP2016213600A (en) * 2015-05-01 2016-12-15 キヤノン株式会社 CONTROL DEVICE, OPTICAL DEVICE, CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
WO2018124054A1 (en) * 2016-12-27 2018-07-05 パナソニックIpマネジメント株式会社 Imaging device and method for controlling same
JP2021044623A (en) * 2019-09-06 2021-03-18 キヤノン株式会社 Imaging apparatus and control method for the same
JP7410675B2 (en) 2019-09-06 2024-01-10 キヤノン株式会社 Imaging device and its control method
JP2021108784A (en) * 2020-01-07 2021-08-02 キヤノンメディカルシステムズ株式会社 X-ray diagnostic apparatus
JP7412180B2 (en) 2020-01-07 2024-01-12 キヤノンメディカルシステムズ株式会社 X-ray diagnostic equipment
US11678081B2 (en) 2020-02-05 2023-06-13 Panasonic Intellectual Property Managevent Co., Ltd. Imaging device and image processing method

Similar Documents

Publication Publication Date Title
JP2010074584A (en) Imaging apparatus and imaging method
US9124809B2 (en) Image processing apparatus, image pickup apparatus, image processing method, and program
JP5458865B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP5342969B2 (en) Imaging apparatus and imaging method
JP4987355B2 (en) Imaging apparatus and imaging method
JP6711612B2 (en) Image processing apparatus, image processing method, and imaging apparatus
JP2010273245A (en) Imaging apparatus and shake correction method
US20110080503A1 (en) Image sensing apparatus
JP2013066145A (en) Image processing apparatus, image processing method, and program
JP4024581B2 (en) Imaging device
JP2011097246A (en) Image processing apparatus, method, and program
WO2013039061A1 (en) Imaging device, imaging method and recording medium
JP2007104349A (en) Imaging device
JP2016111568A (en) Image blur correction control device, imaging apparatus, control method and program thereof
JP4640068B2 (en) Imaging method and imaging apparatus
JP2005236662A (en) Imaging method, imaging apparatus, and imaging system
JP2009135713A (en) Method and apparatus for correcting image distortion caused by camera shake
JP5452269B2 (en) Imaging device
WO2016203966A1 (en) Imaging device, imaging method, and program
JP6223135B2 (en) Imaging apparatus and control method thereof
JP5721552B2 (en) Imaging apparatus and image composition method
JP2019057893A (en) Imaging device
US20160028957A1 (en) Imaging device, a control method for transmitting picture signals, and a program
JP4874864B2 (en) Imaging device
JP2017098750A (en) Vector calculation apparatus and vector calculation method

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20111206