JP2010074584A - Imaging apparatus and imaging method - Google Patents
Imaging apparatus and imaging method Download PDFInfo
- Publication number
- JP2010074584A JP2010074584A JP2008240336A JP2008240336A JP2010074584A JP 2010074584 A JP2010074584 A JP 2010074584A JP 2008240336 A JP2008240336 A JP 2008240336A JP 2008240336 A JP2008240336 A JP 2008240336A JP 2010074584 A JP2010074584 A JP 2010074584A
- Authority
- JP
- Japan
- Prior art keywords
- captured image
- detection
- signal
- detection signal
- image signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Transforming Light Signals Into Electric Signals (AREA)
- Studio Devices (AREA)
- Solid State Image Pick-Up Elements (AREA)
Abstract
【課題】回路規模を大幅に増加させることなく、撮像画像内の被写体の動きを精度良く検出する。
【解決手段】撮像部21では、外部からの光を画素単位で光電変換し、その結果得られた電荷を画素単位で蓄積する。撮像部21は、1フレームの撮像時間内に、蓄積されている電荷に対応する信号を直後に撮像される撮像画像内の被写体の動きを検出するための検出信号として、複数回非破壊で読み出す。また、撮像部21は、1フレームの撮像時間ごとに、蓄積されている電荷に対応する信号を、撮像画像信号として読み出す。本発明は、例えば、撮像装置に適用することができる。
【選択図】図1An object of the present invention is to accurately detect a movement of a subject in a captured image without greatly increasing the circuit scale.
An imaging unit 21 photoelectrically converts light from the outside in units of pixels, and accumulates electric charges obtained as a result in units of pixels. The imaging unit 21 reads a signal corresponding to the accumulated electric charge as a detection signal for detecting a motion of a subject in a captured image that is captured immediately after the imaging time of one frame, non-destructively a plurality of times. . In addition, the imaging unit 21 reads out a signal corresponding to the accumulated charge as a captured image signal for each imaging time of one frame. The present invention can be applied to, for example, an imaging apparatus.
[Selection] Figure 1
Description
本発明は、撮像装置および撮像方法に関し、特に、回路規模を大幅に増加させることなく、撮像画像内の被写体の動きを精度良く検出することができるようにした撮像装置および撮像方法に関する。 The present invention relates to an image pickup apparatus and an image pickup method, and more particularly to an image pickup apparatus and an image pickup method capable of accurately detecting the movement of a subject in a picked-up image without greatly increasing the circuit scale.
デジタルカメラ、ビデオカメラ、携帯電話に搭載されるカメラ、監視カメラ等のカメラには、CCD(Charge Coupled Device)イメージセンサ、またはCMOS(Coplementary Metal-Oxide Semiconductor)イメージセンサが撮像素子として使用される。 A CCD (Charge Coupled Device) image sensor or a CMOS (Coplementary Metal-Oxide Semiconductor) image sensor is used as an imaging device for cameras such as digital cameras, video cameras, cameras mounted on mobile phones, and surveillance cameras.
近年、これらのイメージセンサの製造工程には、最先端の微細化プロセスが用いられるようになってきている。この微細化プロセスにより、イメージセンサそのものを小型化してコストダウンを行ったり、撮像素子の画素数を増大させたりすることができる。 In recent years, a state-of-the-art miniaturization process has been used in the manufacturing process of these image sensors. By this miniaturization process, the image sensor itself can be reduced in size and the cost can be reduced, or the number of pixels of the image sensor can be increased.
しかしながら、画素サイズが縮小化するため、撮影用の光に対する感度が低下する。従って、暗い場所での撮影では、イメージセンサの電荷蓄積時間内のカメラの動きによるぼけや被写体の動きによるぼけ(以下、動きぼけという)が顕著に現れる。 However, since the pixel size is reduced, the sensitivity to light for photographing is lowered. Therefore, when shooting in a dark place, blur due to camera movement or subject movement (hereinafter referred to as motion blur) within the charge accumulation time of the image sensor appears prominently.
例えば、デジタルスチルカメラでは、夜景や暗い室内での長時間露光撮影の際、動きぼけが顕著に現れ、撮像画像が動きぼけによって大きく劣化する。デジタルスチルカメラ自体の大きさや重さにも依存するが、露光時間が1/15秒以上では、この動きぼけが目立つ。 For example, in a digital still camera, motion blur appears prominently during long-exposure shooting in a night view or in a dark room, and the captured image is greatly degraded by motion blur. Although it depends on the size and weight of the digital still camera itself, this motion blur is noticeable when the exposure time is 1/15 second or longer.
また、望遠レンズを使用して遠景を撮影する場合にも、画素サイズの縮小化により、カメラの微細な動きが撮像面では大きな動きとして現れ、動きぼけが顕著になる。 Also, when shooting a distant view using a telephoto lens, due to the reduction in pixel size, a fine camera movement appears as a large movement on the imaging surface, and the motion blur becomes noticeable.
さらに、画素サイズの縮小化によって、これまで通常の撮影では問題とならなかったデジタルスチルカメラの些細な動きによっても、イメージセンサの撮像面で結像された像が、周辺画素に移動することになり、動きぼけが顕著に現れる。その結果、撮像画像の解像度や鮮鋭度が低下する。また、高画素数化のために画素サイズの縮小化が進むと、動きぼけはさらに顕著になり、折角の高画素数化による効果が半減することになる。 Furthermore, due to the reduction in pixel size, the image formed on the imaging surface of the image sensor moves to the surrounding pixels even if the digital still camera moves insignificant, which has not been a problem in normal shooting. And motion blur appears prominently. As a result, the resolution and sharpness of the captured image are reduced. In addition, when the pixel size is reduced to increase the number of pixels, the motion blur becomes more remarkable, and the effect of increasing the number of pixels at the folding angle is halved.
また、ビデオカメラにおいても、フレーム間のビデオカメラの動きなどにより動きぼけが発生する。従って、フルHD(High Definition)から、2Kx4Kや4Kx8Kに高画素数化が進むと、デジタルスチルカメラの場合と同様に、些細なビデオカメラの動きによる周辺画素への影響を無視できなくなってくる。 Also in the video camera, motion blur occurs due to the motion of the video camera between frames. Therefore, when the number of pixels is increased from full HD (High Definition) to 2K × 4K or 4K × 8K, the influence on the peripheral pixels due to the slight movement of the video camera cannot be ignored as in the case of the digital still camera.
以上のように、画素サイズの縮小化によって、動きぼけは、撮影条件によらず顕著に現れる。従って、動きぼけの防止および削減は、画素の微細化が進む際には必須となる。 As described above, due to the reduction in the pixel size, the motion blur appears remarkably regardless of the shooting conditions. Therefore, prevention and reduction of motion blur are indispensable when pixel miniaturization proceeds.
ところで、動きぼけを削減する方法は、従来から広く検討されている。 Incidentally, methods for reducing motion blur have been widely studied.
例えば、第1の方法として、光学的、メカ的にカメラによる動きの補正を行う方法がある。この方法では、カメラは、例えば、加速度センサや速度サンサなどの動きセンサと可動部を有するレンズ等の光学系から構成される。そして、カメラは、動きセンサにより検出されたカメラの不用な動きにしたがって、光学系を移動させることにより、撮像面での被写体としての静止物体の動きを補正する。 For example, as a first method, there is a method of correcting a motion by a camera optically and mechanically. In this method, the camera is composed of, for example, a motion sensor such as an acceleration sensor or a velocity sensor and an optical system such as a lens having a movable part. Then, the camera corrects the motion of the stationary object as the subject on the imaging surface by moving the optical system in accordance with the unnecessary motion of the camera detected by the motion sensor.
この第1の方法では、カメラが適正に動作すれば優れた性能を発揮するが、動き検出のための動きセンサや新たな光学部品が必要であり、小型化やコストダウンには適してない。また、光学的、メカ的な動作のため、高速な動きへの追従性能などが良くない。 This first method exhibits excellent performance if the camera operates properly, but requires a motion sensor and new optical components for motion detection, and is not suitable for downsizing and cost reduction. Also, due to optical and mechanical operations, the performance of following high-speed movement is not good.
また、第2の方法として、イメージセンサから読み出された1フレーム分の画像データの解析により、カメラの動きを分析して動きぼけを推定し、画像処理的に動きぼけの削減を行う方法がある。この第2の方法では、信号処理だけで動きぼけの削減を行うことができるため、容易に実現可能である。 As a second method, there is a method of analyzing motion of a camera to estimate motion blur by analyzing image data for one frame read from the image sensor, and reducing motion blur in terms of image processing. is there. This second method can be easily realized because motion blur can be reduced only by signal processing.
しかしながら、1枚のフレームの画像データからカメラの本来の動きを正確に推定することは不可能であり、第2の方法は、あくまでも近似的に動きぼけを低減するという範囲に留まる。なお、第2の方法では、リアルタイム性が要求されないため、撮影後に、パーソナルコンピュータなどで、オフラインで処理を行うことができる。 However, it is impossible to accurately estimate the original motion of the camera from the image data of one frame, and the second method is limited to the extent that motion blur is approximately reduced. In the second method, since real-time performance is not required, processing can be performed offline with a personal computer or the like after shooting.
さらに、第3の方法として、カメラの動きそのものを検出するカメラを別に設け、動きぼけの検出能力を強化した方法がある(例えば、非特許文献1)。この第3の方法では、例えば、撮影用のカメラと動き検出用のカメラの計2台のカメラが設けられ、動き検出用のカメラでカメラの動きが検出され、その動きに基づいて撮像画像から動きぼけを削減するための画像処理が行われる。 Furthermore, as a third method, there is a method in which a camera for detecting the motion of the camera itself is separately provided to enhance the motion blur detection capability (for example, Non-Patent Document 1). In this third method, for example, a total of two cameras, a camera for shooting and a camera for motion detection, are provided, and the motion of the camera is detected by the camera for motion detection, and from the captured image based on the motion. Image processing is performed to reduce motion blur.
第3の方法では、第2の方法に比べて、動きそのものをより正確に検出することができるため、動きぼけの低減に効果がある。しかしながら、2台のカメラを使用する必要があり、実際の製品として実用化するのは難しい。 The third method is more effective in reducing motion blur because the motion itself can be detected more accurately than the second method. However, it is necessary to use two cameras, and it is difficult to put it to practical use as an actual product.
一方、近年、イメージセンサに蓄積された電荷を破壊せずに、その電荷に対応する画像信号を読み出す非破壊読み出しが可能な回路が考案されている(例えば、非特許文献2参照)。 On the other hand, in recent years, a circuit capable of nondestructive reading that reads an image signal corresponding to the charge without destructing the charge accumulated in the image sensor has been devised (for example, see Non-Patent Document 2).
以上のように、動きぼけを削減する方法としては様々な方法が考案されているが、回路規模を大幅に増加させることなく、撮像画像内の被写体の動きを精度良く検出し、動きぼけを高精度で削減する方法は考えられていなかった。 As described above, various methods have been devised for reducing motion blur. However, the motion of a subject in a captured image can be accurately detected and the motion blur can be increased without significantly increasing the circuit scale. A method of reducing the accuracy was not considered.
本発明は、このような状況に鑑みてなされたものであり、回路規模を大幅に増加させることなく、撮像画像内の被写体の動きを精度良く検出することができるようにするものである。 The present invention has been made in view of such a situation, and makes it possible to accurately detect the movement of a subject in a captured image without greatly increasing the circuit scale.
本発明の一側面は、外部からの光を画素単位で光電変換する光電変換手段と、前記光電変換手段により得られた電荷を画素単位で蓄積する蓄積手段と、1フレームの撮像時間内に、前記蓄積手段により蓄積されている電荷に対応する信号を直後に撮像される撮像画像内の被写体の動きを検出するための検出信号として、複数回非破壊で読み出す検出信号読出手段と、1フレームの撮像時間ごとに、前記蓄積手段により蓄積されている電荷に対応する信号を、撮像画像信号として読み出す撮像画像信号読出手段とを備える撮像装置である。 One aspect of the present invention is a photoelectric conversion means for photoelectrically converting light from the outside in units of pixels, an accumulation means for storing charges obtained by the photoelectric conversion means in units of pixels, and within an imaging time of one frame, A detection signal reading unit that reads a signal corresponding to the electric charge accumulated by the accumulation unit as a detection signal for detecting a motion of a subject in a captured image that is imaged immediately thereafter, and a frame of non-destructive reading The imaging apparatus includes: a captured image signal reading unit that reads out a signal corresponding to the charge accumulated by the accumulation unit as a captured image signal every imaging time.
本発明の一側面は、撮像装置が、外部からの光を画素単位で光電変換する光電変換ステップと、前記光電変換ステップの処理により得られた電荷を画素単位で蓄積する蓄積ステップと、1フレームの撮像時間内に、前記蓄積ステップの処理により蓄積されている電荷に対応する信号を直後に撮像される撮像画像内の被写体の動きを検出するための検出信号として、複数回非破壊で読み出す検出信号読出ステップと、1フレームの撮像時間ごとに、前記蓄積ステップの処理により蓄積されている電荷に対応する信号を、撮像画像信号として読み出す撮像画像信号読出ステップとを含む撮像方法である。 According to one aspect of the present invention, an imaging device performs photoelectric conversion steps in which external light is photoelectrically converted in units of pixels, an accumulation step in which charges obtained by the processing of the photoelectric conversion steps are stored in units of pixels, and one frame In the imaging time, a signal corresponding to the charge accumulated by the processing of the accumulation step is detected as a detection signal for detecting the motion of the subject in the captured image that is imaged immediately after the detection, and is read out a plurality of times. The imaging method includes a signal readout step and a captured image signal readout step of reading out a signal corresponding to the charge accumulated by the processing of the accumulation step as a captured image signal every imaging time of one frame.
本発明の一側面においては、外部からの光が画素単位で光電変換され、その電荷が画素単位で蓄積され、1フレームの撮像時間内に、蓄積されている電荷に対応する信号が、直後に撮像される撮像画像内の被写体の動きを検出するための検出信号として、複数回非破壊で読み出され、1フレームの撮像時間ごとに、蓄積されている電荷に対応する信号が、撮像画像信号として読み出される。 In one aspect of the present invention, light from the outside is photoelectrically converted in units of pixels, the charges are accumulated in units of pixels, and a signal corresponding to the accumulated charges is immediately after the imaging time of one frame. As a detection signal for detecting the movement of the subject in the captured image to be captured, a signal corresponding to the accumulated charge that is read out non-destructively a plurality of times and stored for each imaging time of one frame is a captured image signal. Is read as
以上のように、本発明の一側面によれば、回路規模を大幅に増加させることなく、撮像画像内の被写体の動きを精度良く検出することができる。 As described above, according to one aspect of the present invention, it is possible to accurately detect the movement of a subject in a captured image without significantly increasing the circuit scale.
図1は、本発明を適用した撮像装置の一実施の形態の構成例を示すブロック図である。 FIG. 1 is a block diagram showing a configuration example of an embodiment of an imaging apparatus to which the present invention is applied.
図1の撮像装置10は、非破壊読み出し可能なCMOSイメージセンサであるイメージセンサ11と、信号処理部12により構成され、撮像時間内に撮像装置10や被写体が動くことによって生じる撮像画像内の被写体の動きを検出し、撮像画像の動きぼけを削減する。
The
イメージセンサ11において、撮像部21は、モザイク上に配置されたカラーフィルタ21Aを通過した外部からの光を画素単位で光電変換し、その結果得られる電荷を蓄積する。この撮像部21には、読み出し経路として、撮像用の読み出し経路と動き検出用の読み出し経路の2つが設けられている。
In the
具体的には、撮像部21は、画像用垂直走査回路22により選択された制御線23に対応する、1フレームの撮像時間内に画素単位で蓄積された電荷に対応する信号を、撮像画像の画像信号(以下、撮像画像信号という)として読み出す。これにより、所定のフレームレートで、走査線ごとに撮像画像信号が読み出され、読み出し線24を介して画像用カラム並列ADC25に供給される。
Specifically, the
また、撮像部21は、検出用垂直走査回路29により選択された制御線30に対応する、1フレームの撮像時間より短い時間内に画素単位で蓄積された電荷に対応する信号を、直後に撮像される撮像画像内の被写体の動きを検出するための検出信号として非破壊で読み出す。これにより、撮像画像のフレームレートより高速のフレームレートで、走査線ごとに検出信号が読み出され、読み出し線31を介して検出用カラム並列ADC32に供給される。
In addition, the
画像用垂直走査回路22は、各走査線に対応する制御線23を順次選択することにより、撮像部21による撮像画像信号の読み出しを制御する。画像用カラム並列ADC25は、撮像部21から供給される撮像画像信号に対してA/D(Analog/Digital)変換を行い、その結果得られる撮像画像信号を、信号線26を介して読み出し回路27に供給する。
The image
読み出し回路27は、デジタル回路であり、画像用カラム並列ADC25から供給される撮像画像信号を、信号線28を介して信号処理部12に出力する。
The
検出用垂直走査回路29は、所定の走査線に対応する制御線30を選択することにより、撮像部21による検出信号の読み出しを制御する。検出用カラム並列ADC32は、撮像部21から供給される検出信号に対してA/D変換を行い、その結果得られる検出信号を、信号線33を介して読み出し回路34に供給する。
The detection
読み出し回路34は、デジタル回路であり、検出用カラム並列ADC32から供給される検出信号を、信号線35を介して信号処理部12に出力する。
The
信号処理部12において、カメラ信号処理部41は、読み出し回路27から信号線28を介して供給される撮像画像信号に対して、各種の補正、レベル調整、デモザイク処理(詳細は後述する)などを行う。そして、信号処理部12は、その結果得られる撮像画像信号を、信号線42を介してバッファメモリ43に供給する。
In the
なお、デモザイク処理とは、撮像画像信号としてのR,G,Bのデータ(以下、RAWデータという)から、全画面の各画素のR,G,Bのデータを補間してRGBの3面のデータ(ビットマップデータ)を求める処理である。 Note that demosaic processing is performed by interpolating R, G, and B data of each pixel on the entire screen from R, G, and B data (hereinafter referred to as RAW data) as a captured image signal. This is a process for obtaining data (bitmap data).
また、カメラ信号処理部41における処理は、上述した処理に限定されない。例えば、カメラ信号処理部41においてデモザイク処理が行われず、撮像画像信号としてRAWデータを用いて後段の処理が行われ、最後にデモザイク処理が行われるようにしてもよい。
Further, the processing in the camera
この場合、RAWデータを用いて後述する動きぼけの推定が行われるので、より実際の動きぼけに近い動きぼけを推定することができ、より精度良く動きぼけを削減することができる。また、RAWデータのデータ量は、ビットマップデータのデータ量の1/3であるので、後段の処理の演算量を抑えることが可能となる。さらに、動きぼけの削減処理時に、デモザイク処理を行うことで、演算の効率化が実現できる場合もある。 In this case, since motion blur, which will be described later, is estimated using RAW data, motion blur closer to the actual motion blur can be estimated, and motion blur can be reduced more accurately. In addition, since the data amount of the RAW data is 1/3 of the data amount of the bitmap data, it is possible to suppress the calculation amount of the subsequent processing. Further, there may be a case where the efficiency of calculation can be realized by performing the demosaic process at the time of the motion blur reduction process.
バッファメモリ43は、後段の処理とのタイミング調整のため、カメラ信号処理部41から供給される撮像画像信号を一時的に保持する。
The
フレーム差分部44は、読み出し回路34から信号線35を介して供給される、連続する2フレームの検出信号の画素ごとの差分を求め、動き検出用の画像の画像信号(以下、動き検出画像信号という)とする。そして、フレーム差分部44は、この動き検出画像信号を、信号線45を介してノイズリダクション部46に供給する。
The
ノイズリダクション部46は、後段の処理の安定化のため、フレーム差分部44から供給される動き検出画像信号のノイズレベルを低減する。このノイズレベルの低減方法としては、一般的に、メディアンフィルタ、バイラレタルフィルタ、平均化処理などがある。ノイズリダクション部46は、ノイズレベルが低減された動き検出画像信号を、信号線47を介して動き検出部48に供給する。なお、ノイズリダクション部46は設けられなくてもよい。
The
動き検出部48は、ノイズリダクション部46から供給される動き検出画像信号に基づいて、その動き検出画像信号に対応する動き検出用の画像における動きベクトルを検出する。この動きベクトルを検出する方法としては、ブロックマッチング法、オプティカルフロー法、コーナトラッキング法等がある。
Based on the motion detection image signal supplied from the
ブロックマッチング法とは、現在のフレームとそれより1つ前のフレームの画像のブロックの差分値を求め、その差分値が最小となるブロック間のベクトルを動きベクトルとして求める方法である。 The block matching method is a method for obtaining a difference value between blocks of an image of the current frame and the previous frame and obtaining a vector between blocks having the smallest difference value as a motion vector.
また、オプティカルフロー(Optical Flow)法とは、Lucas-Kanade法に代表される方法であり、画像を光の場と捉えて、その流れの計算により画像の動きベクトルを検出する方法である。 The optical flow method is a method typified by the Lucas-Kanade method, in which an image is regarded as a light field and a motion vector of the image is detected by calculation of the flow.
さらに、コーナトラッキング法とは、物体や風景などの被写体のコーナを特徴点(Feature Point, Interest Point)として検出し、その特徴点をトラッキングすることにより、動きベクトルを求める方法である。このコーナトラッキング法は、ハリスディテクタ(Harris Detector)に代表されるコーナ検出機能と、パーティクルフィルタ(Particle Filter)などのトラッキング機能を用いて実現することができる。 Further, the corner tracking method is a method of obtaining a motion vector by detecting a corner of a subject such as an object or a landscape as a feature point (Feature Point, Interest Point) and tracking the feature point. This corner tracking method can be realized by using a corner detection function represented by a Harris Detector and a tracking function such as a particle filter.
なお、動きベクトルの検出を画面内の全ての点において行うことは困難であるため、動き検出部48は、離散的なサンプリング点においてのみ動きベクトルの検出を行う。動き検出部48により検出された動きベクトルは、信号線49を介して動きベクトル場生成部50に供給される。
Since it is difficult to detect motion vectors at all points on the screen, the
動きベクトル場生成部50は、動き検出部48から供給される各サンプリング点の動きベクトルに基づいて、画面内の全ての点の動きベクトルを演繹し、補間する。例えば、被写体として動物体が含まれず、撮像装置10の動きが回転成分を含まない場合、画面内の動きの大きさは均一となる。しかしながら、この均一性は蓄積時間が同一となる走査線上でのみ存在するので、画面の垂直方向での補間は行う必要がある。
Based on the motion vector of each sampling point supplied from the
また、撮像装置10の動きが回転成分を含む場合、画面内の動きの大きさは、回転中心からの距離によって異なり、動きの方向も位置によって異なる。従って、それらを考慮して補間を行う必要がある。よって、動きベクトル場生成部50は、例えば、距離によって重み付けされた動きベクトルの和を補間後の動きベクトルとして求める。
When the movement of the
また、動きベクトル場生成部50は、補間の結果得られる画面内の全ての点の動きベクトルを、信号線51を介して軌跡補間部52に供給する。
Further, the motion vector
軌跡補間部52は、動きベクトル場生成部50から供給される、連続する所定数の各動き検出用画像内の全ての点の動きベクトルに基づいて、スプライン関数などによって、その動き検出用画像に対応する撮像画像内の被写体の動きの軌跡を求める。そして、軌跡補間部52は、求められた動きの軌跡を、信号線53を介してPSF(Point Spread Function)生成部54に供給する。
The
PSF生成部54は、軌跡補間部52からの動きベクトルの軌跡と、光学PSFデータメモリ55からの光学PSFデータとに基づいて、動きぼけを削減するための関数としてのPSF(以下、動きぼけPSFという)を求めることにより、各画素の動きぼけを推定する。なお、光学PSFデータとは、外部からの光を集光し、カラーフィルタ21Aを通過させる光学系(図示せず)のPSFを表すデータであり、撮像部21の有する光学的なぼけを表すデータである。
The
また、PSF生成部54は、求められた動きぼけPSFを表す動きぼけPSFデータを、信号線57を介して動きぼけ削減部59に供給する。
In addition, the
光学PSFデータメモリ55は、光学PSFデータを予め記憶している。この光学PSFデータは、必要に応じて読み出され、信号線56を介してPSF生成部54に供給される。
The optical
動きぼけ削減部59は、バッファメモリ43から撮像画像信号を、信号線58を介して読み出す。動きぼけ削減部59は、PSF生成部54から供給される動きぼけPSFデータを用いて、バッファメモリ43から読み出された撮像画像信号の動きぼけを削減し、信号線60を介して外部に出力する。
The motion
バッファメモリ61は、フレーム差分部44から動きぼけ削減部59までの経路で出力されるデータや演算途中結果などを保持する。検出制御部62は、検出信号の読み出し方法を表す選択信号を、信号線63を介してイメージセンサ11の検出用垂直走査回路29に送信する。この選択信号に基づいて、検出用垂直走査回路29は制御線30の選択を行う。
The
以上のように、撮像装置10では、イメージセンサ11が、所定のフレームレートで撮像画像信号を読み出すだけでなく、撮像画像信号より高速のフレームレートで検出信号を非破壊読み出しする。従って、撮像装置10では、撮像画像を取得するとともに、その撮像画像の撮像時間内に複数フレームの動き検出用画像を取得することができる。
As described above, in the
その結果、撮像装置10は、撮像画像信号を取得するイメージセンサ11を用いて、撮像画像内の被写体の動きを精度良く検出することができる。即ち、撮像装置10は、回路規模を大幅に増加させることなく、撮像画像内の被写体の動きを精度良く検出することができる。
As a result, the
次に、図2は、撮像部21の詳細構成例を示している。
Next, FIG. 2 shows a detailed configuration example of the
なお、図2では、説明の便宜上、撮像部21のうちの1画素分の構成、即ち1画素を撮像する画素部の構成について図示してある。このことは、後述する図3においても同様である。
In FIG. 2, for convenience of explanation, the configuration of one pixel in the
図2に示すように、1画素を撮像する画素部80では、光電変換を行うフォトダイオード81が設けられている。このフォトダイオード81には、撮像画像信号を読み出す撮像画像読出部82と、検出信号を読み出す検出用画像読出部83に接続されている。
As shown in FIG. 2, the
撮像画像読出部82は、4つのMOSトランジスタ91乃至94と電源95により構成される。詳細には、撮像画像読出部82において、MOSトランジスタ91のソースは、フォトダイオード81と検出用画像読出部83のバックゲート103(後述する)に接続されている。また、MOSトランジスタ91のドレインはMOSトランジスタ92のソースとMOSトランジスタ93のゲートに接続され、ゲートは、制御線23のうちのトランスファ信号用の制御線97に接続されている。
The captured
また、電源95は、MOSトランジスタ92および93のドレインに接続されている。MOSトランジスタ92のゲートは制御線23のうちの、リセット信号用の制御線96に接続され、MOSトランジスタ94のゲートは制御線23のうちの、走査線選択信号用の制御線98に接続されている。さらに、MOSトランジスタ94のドレインはMOSトランジスタ93のソースに接続され、ソースは読み出し線24に接続されている。
The
以上のように構成される撮像画像読出部82では、画像用垂直走査回路22により制御線97が選択されて、トランスファ信号が、トランスファゲートとしてのMOSトランジスタ91のゲートに供給されると、MOSトランジスタ91がオンにされる。その結果、検出用画像読出部83のバックゲート103に蓄積された電荷がMOSトランジスタ93のゲートに転送される。これにより、バックゲート103に蓄積された電荷は破壊される。
In the captured
そして、画像用垂直走査回路22が制御線98を選択すると、走査線選択信号がMOSトランジスタ94のゲートに供給され、MOSトランジスタ94がオンとなる。その結果、MOSトランジスタ94に直列接続されているMOSトランジスタ93で、MOSトランジスタ91により転送された電荷が増幅され、撮像画像信号として読み出し線24を介して出力される。
When the image
以上のように、画素部80では、バックゲート103に蓄積された電荷が転送されることにより、撮像画像信号の読み出しが行われ、蓄積電荷の転送により蓄積電荷は破壊されるので、撮像画像信号の読み出しは破壊読み出しといえる。
As described above, in the
一方、画像用垂直走査回路22が制御線96を選択すると、リセット信号がMOSトランジスタ92に供給される。その結果、MOSトランジスタ92によって、バックゲート103に蓄積された電荷はリセットされる。
On the other hand, when the image
検出用画像読出部83は、MOSトランジスタ101と電源102により構成される。詳細には、MOSトランジスタ101のソースは電源102と接続され、ドレインは読み出し線31と接続され、ゲートは、制御線30と接続されている。また、MOSトランジスタ101のチャンネル領域の直下に設けられるバックゲート103は、フォトダイオード81に接続されている。
The detection
以上のように構成される検出用画像読出部83では、フォトダイオード81で発生した電荷が、バックゲート103に蓄積される。そして、検出用垂直走査回路29により制御線30が選択され、制御線30を介して読み出し信号がMOSトランジスタ101のゲートに供給されると、MOSトランジスタ101がオンになる。その結果、バックゲート103に蓄積された電荷の電荷量に依存した信号が、検出信号として読み出し線31を介して出力される。
In the detection
このように、検出用画像読出部83では、バックゲート103に蓄積された電荷が維持されたまま、その電荷の電荷量に依存した検出信号が読み出されるので、検出信号の読み出しは、非破壊読み出しといえる。
As described above, the detection
次に、図3は、撮像部21の他の詳細構成例を示している。
Next, FIG. 3 shows another detailed configuration example of the
図3において、画素部120は、フォトダイオード121と、図2の検出用画像読出部83と同様に構成される撮像画像読出部122および検出用画像読出部123とにより構成され、撮像画像信号についても検出信号と同様に非破壊読み出しを行う。
3, the
具体的には、撮像画像読出部122は、MOSトランジスタ131と電源132により構成され、検出用画像読出部123は、MOSトランジスタ141と電源142により構成される。そして、MOSトランジスタ131のバックゲート133と、MOSトランジスタ141のバックゲート143が、フォトダイオード121に接続されている。
Specifically, the captured
また、MOSトランジスタ131のドレインは電源132に接続され、ソースは読み出し線24に接続され、ゲートは制御線23に接続されている。一方、MOSトランジスタ141のソースは電源142に接続され、ドレインは読み出し線31に接続され、ゲートは制御線30に接続されている。
The drain of the
以上のように構成される画素部120では、フォトダイオード121で発生した電荷が、検出信号の読み出し時には、検出用画像読出部123のバックゲート143に蓄積される。具体的には、フォトダイオード121で発生した電荷を矢印Aで示すようにバックゲート143に押しやる電位が、撮像画像読出部122のMOSトランジスタ131のゲートに、撮像用読み出し信号として制御線23を介して印加される。
In the
そして、検出用垂直走査回路29により制御線30が選択され、制御線30を介して検出用読み出し信号がMOSトランジスタ141のゲートに印加され、MOSトランジスタ141がオンになる。これにより、バックゲート143に蓄積された電荷の電荷量に依存した信号、即ち、電荷量によって変調された信号が、検出信号として読み出し線31を介して出力される。
Then, the
一方、撮像画像信号の読み出し時には、フォトダイオード121で発生した電荷が、撮像画像読出部122のバックゲート133に蓄積される。具体的には、検出用画像読出部123のバックゲート143に蓄積されている電荷を、矢印Bで示すように、撮像画像読出部122のバックゲート133に押しやるような電位が、検出用読み出し信号として、MOSトランジスタ141のゲートに制御線30を介して印加される。
On the other hand, when the captured image signal is read, the charge generated by the
そして、画像用垂直走査回路22により制御線23が選択され、制御線23を介して撮像用読み出し信号がMOSトランジスタ131のゲートに印加され、MOSトランジスタ131がオンになる。これにより、バックゲート143からバックゲート133に移動された電荷の電荷量に依存した信号が、撮像画像信号として読み出し線24を介して出力される。この後、蓄積されている電荷は、例えば、イメージセンサ11が配置される基板(図示せず)に流され、リセットされる。
Then, the
以上のように、図3の画素部120では、撮像画像信号と検出信号の両方の非破壊読み出しを行うことができる。また、蓄積された電荷をバックゲート133または143に移動させるので、確実に読み出し動作を行うことができる。さらに、撮像画像信号と検出信号の読み出しに必要なMOSトランジスタは、2つであるので、5つのMOSトランジスタが必要な図2の画素部80に比べて、画素部120を小型化することができる。
As described above, the
なお、バックゲート133および143に蓄積される電荷は、電子であってもホールであってもよい。
Note that the charges accumulated in the
次に、図4乃至図12を参照して、撮像画像信号と検出信号の読み出しタイミングについて説明する。 Next, the readout timing of the captured image signal and the detection signal will be described with reference to FIGS.
まず、図4は、撮像装置10が長時間露光を行う場合の読み出しタイミングについて示し、図5は、撮像装置10が比較的短時間の露光を行う場合の読み出しタイミングについて示している。
First, FIG. 4 shows the readout timing when the
なお、図4Aおよび図5Aでは、横軸は時刻を表し、縦軸は撮像画像内の被写体の動きベクトルの大きさ、即ちシフト量を表している。また、図4Bおよび図5Bでは、横軸は時刻を表し、縦軸は、読み出される撮像画像信号または検出信号に対応する走査線の画面内の垂直方向の位置を表している。但し、この垂直方向の位置を表す値は、上部ほど大きくなるようになっている。従って、縦軸の上部は画面の上部を表し、下部は画面の下部を表す。このことは、以降の図についても同様である。 4A and 5A, the horizontal axis represents time, and the vertical axis represents the magnitude of the motion vector of the subject in the captured image, that is, the shift amount. 4B and 5B, the horizontal axis represents time, and the vertical axis represents the position of the scanning line in the vertical direction in the screen corresponding to the captured image signal or detection signal to be read. However, the value representing the position in the vertical direction is increased toward the top. Therefore, the upper part of the vertical axis represents the upper part of the screen, and the lower part represents the lower part of the screen. The same applies to the subsequent drawings.
図4Bでは、撮像画像のフレーム(以下、撮像フレームという)PF(Picture Frame)1の撮像画像信号と、その次の撮像フレームPF2の撮像画像信号の読み出しの間に、16枚の動き検出用画像のフレーム(以下、動き検出フレームという)DF(Detection Frame)1乃至DF16の検出信号が読み出される。そして、信号処理部12は、読み出された16枚の検出フレームDF1乃至DF16の検出信号から、フレームPF2の撮像画像内の被写体の動きベクトルの軌跡を検出し、その軌跡に基づいて動きぼけを削減する。
In FIG. 4B, there are 16 motion detection images during the readout of the captured image signal of a frame PF (Picture Frame) 1 of the captured image and the captured image signal of the next imaging frame PF2. Detection signals of DF (Detection Frame) 1 to DF16 are read out. Then, the
但し、撮像画像信号と検出信号の読み出しは、走査線ごとに行われるため、図4Bに示すように、同一フレームであっても走査線ごとに読み出し時刻が異なっている。図4Bの例では、画面の上部の読み出し時刻が早く、画面の下部の読み出し時刻が遅い。即ち、撮像画像信号と検出信号は、画面の上部から下部に向かって走査線ごとに順次読み出される。 However, since readout of the captured image signal and the detection signal is performed for each scanning line, the readout time is different for each scanning line even in the same frame as shown in FIG. 4B. In the example of FIG. 4B, the readout time at the top of the screen is early and the readout time at the bottom of the screen is late. That is, the captured image signal and the detection signal are sequentially read for each scanning line from the top to the bottom of the screen.
従って、図4Bに示すように、画面の上部の走査線における撮像時間161、画面の中央部の走査線における撮像時間162、および画面の下部の走査線における撮像時間163は異なっている。
Therefore, as shown in FIG. 4B, the
しかしながら、長時間露光が行われる場合、撮像時間161乃至163の大部分は重なっており、図4Aに示すように、撮像時間161乃至163内の被写体の動きベクトルの軌跡に大差はない。従って、信号処理部12は、画面全体で共通の撮像時間内の被写体の動きベクトルの軌跡を用いて、動きぼけの削減を行うことができる。
However, when long-time exposure is performed, most of the
これに対して、図5に示すように、露光時間が比較的短い場合、図5Bに示すように、撮像フレームPF11の撮像画像信号と、その次のフレームPF12の撮像画像信号の読み出しの間が、図4Bの場合に比べて短くなる。 On the other hand, as shown in FIG. 5, when the exposure time is relatively short, as shown in FIG. 5B, the interval between reading of the captured image signal of the captured frame PF11 and the captured image signal of the next frame PF12 is between. This is shorter than in the case of FIG. 4B.
このため、画面の上部の走査線における撮像時間181、画面の中央部の走査線における撮像時間182、および画面の下部の走査線における撮像時間183の重なり部分の割合は小さくなる。従って、図5Aに示すように、撮像時間181乃至183内の被写体の動きベクトルの軌跡は大きく異なる場合がある。
For this reason, the ratio of the overlapping portion of the imaging time 181 in the scanning line at the top of the screen, the
そこで、露光時間が比較的短い場合、信号処理部12は、画面全体を垂直方向に走査線単位で複数の領域に分割して、各領域の撮像時間内の被写体の動きベクトルの軌跡を求め、その各領域の動きベクトルの軌跡を用いて、領域ごとに動きぼけの削減を行う。これにより、動きぼけの削減精度を向上させることができる。
Therefore, when the exposure time is relatively short, the
また、検出信号のフレームレートが高い場合、即ち、露光時間が短い、撮像時間内に読み出される検出信号のフレーム数が多い等により、検出信号のフレーム間隔が短い場合、複数のフレームの走査線単位の検出信号を同一のタイミングで読み出す必要がある。 In addition, when the frame rate of the detection signal is high, that is, when the frame interval of the detection signal is short due to a short exposure time, a large number of detection signal frames to be read within the imaging time, etc. Must be read at the same timing.
図6は、検出信号のフレームレートが高い場合に必要とされる読み出しタイミングについて説明する図である。 FIG. 6 is a diagram for explaining the read timing required when the frame rate of the detection signal is high.
なお、図6において、横軸は時刻を表し、縦軸は、読み出される撮像画像信号または検出信号に対応する走査線の画面内の垂直方向の位置を表している。また、図6の場合、電子シャッタは使用されないものとする。 In FIG. 6, the horizontal axis represents time, and the vertical axis represents the position of the scanning line in the vertical direction in the screen corresponding to the captured image signal or detection signal to be read. In the case of FIG. 6, the electronic shutter is not used.
図6では、撮像フレームPF21の撮像画像信号が読み出された後、その次の撮像フレームPF22の撮像画像信号が読み出されるまでの間、即ち撮像フレームPF22の撮像時間201内に、4枚の検出フレームDF21乃至24の検出信号が読み出される。なお、最後の検出フレームDF24の検出信号は、撮像フレームPF22の撮像画像信号の直前のΔ時間だけ前に読み出される。
In FIG. 6, after the captured image signal of the imaging frame PF21 is read, until the captured image signal of the next imaging frame PF22 is read out, that is, within the
また、撮像フレームPF21や、撮像フレームPF22の次の撮像フレームPF23の撮像時間内においても、撮像フレームPF22の場合と同様に、4枚の検出フレームDF21乃至24の検出信号が読み出される。 Similarly to the imaging frame PF22, the detection signals of the four detection frames DF21 to DF24 are read out within the imaging time of the imaging frame PF21 and the imaging frame PF23 next to the imaging frame PF22.
図6の例では、検出フレームDF21乃至DF24のフレーム間隔202が短いため、1時刻に、1枚の撮像フレームの撮像信号とともに、4枚の検出フレームDF21乃至DF24の走査線の検出信号を読み出す必要がある。
In the example of FIG. 6, since the
例えば、時刻203では、撮像フレームPF21の垂直方向の位置210の走査線の撮像信号とともに、撮像フレームPF21を跨いだ4枚の検出フレームの検出信号を読み出す必要がある。具体的には、撮像フレームPF22の撮像時間内の検出フレームDF23の垂直方向の位置211、検出フレームDF22の垂直方向の位置212、および検出フレームDF21の垂直方向の位置213、並びに撮像フレームPF21の撮像時間内の検出フレームDF24の垂直方向の位置214の走査線の検出信号を読み出す必要がある。
For example, at
また、時刻204では、撮像フレームPF22の撮像信号とともに、撮像フレームPF22を跨いだ4枚の検出フレームの検出信号を読み出す必要がある。具体的には、時刻204では、撮像フレームPF22の撮像時間201内の検出フレームDF23およびDF24、並びに、撮像フレームPF23の撮像時間内の検出フレームDF21およびDF22の検出信号を読み出す必要がある。
At
しかしながら、撮像画像信号と検出信号の読み出しレートが同一である場合、1フレームの撮像画像信号を読み出す間に、4フレームの検出信号を時分割で読み出すことはできない。従って、検出信号の1フレーム当たりの読み出し時間を、撮像画像信号の1フレーム当たりの読み出し時間の1/4にする必要がある。 However, when the readout rate of the captured image signal and the detection signal is the same, the detection signal of 4 frames cannot be read out in a time division manner while the captured image signal of 1 frame is read out. Therefore, the readout time per frame of the detection signal needs to be ¼ of the readout time per frame of the captured image signal.
そこで、撮像装置10では、以下の第1乃至第3の方法のいずれかを用いて、検出信号の1フレーム当たりの読み出し時間を1/4に削減する。なお、この第1乃至第3の方法のいずれかを用いた読み出しは、検出制御部62が、その方法を表す選択信号を、信号線63を介して検出用垂直走査回路29に送信することにより行われる。
Therefore, in the
まず、図7を参照して、第1の方法について説明する。 First, the first method will be described with reference to FIG.
第1の方法は、読出対象とする検出信号の走査線を間引く方法である。 The first method is a method of thinning out scanning lines of detection signals to be read.
具体的には、第1の方法では、図7Aに示すように、4本の走査線につき1本の走査線の検出信号が読み出される。即ち、上からn番目、n+4番目、n+8番目、・・・の走査線の画素(図中黒丸)の画素部80(120)に蓄積される電荷に対応する検出信号が読み出される。そして、その走査線以外の走査線の画素(図中白丸)の画素部80(120)に蓄積される電荷に対応する検出信号は読み出されない。 Specifically, in the first method, as shown in FIG. 7A, the detection signal of one scanning line is read out for every four scanning lines. That is, the detection signal corresponding to the charge accumulated in the pixel portion 80 (120) of the pixel (black circle in the figure) of the nth, n + 4th, n + 8th,. And the detection signal corresponding to the electric charge accumulated in the pixel portion 80 (120) of the pixel (white circle in the figure) of the scanning line other than the scanning line is not read out.
また、図7Aの黒丸で表される画素の検出信号は、走査線ごとに、上から順に読み出される。即ち、上からn番目、n+4番目、n+8番目、・・・の順に、各走査線の検出信号が読み出される。なお、図7Aにおいて、横軸は、画面内の水平方向の位置を表し、縦軸は、画面内の走査線の垂直方向の位置を表している。 In addition, pixel detection signals represented by black circles in FIG. 7A are sequentially read from the top for each scanning line. That is, the detection signals of the respective scanning lines are read out in the order of nth, n + 4th, n + 8th,. In FIG. 7A, the horizontal axis represents the horizontal position in the screen, and the vertical axis represents the vertical position of the scanning line in the screen.
次に、図7Bを参照して、第1の方法を用いた場合の時刻203(図6)付近における4枚の検出フレームDF21乃至DF24の検出信号の読み出しタイミングについて説明する。なお、図7Bにおいて、横軸は時刻を表し、縦軸は、画面内の走査線の垂直方向の位置を表している。また、図7Bにおいて、破線はフレームの境界を表している。 Next, with reference to FIG. 7B, the detection timing of the detection signals of the four detection frames DF21 to DF24 around the time 203 (FIG. 6) when the first method is used will be described. In FIG. 7B, the horizontal axis represents time, and the vertical axis represents the vertical position of the scanning line in the screen. In FIG. 7B, a broken line represents a frame boundary.
図7Bに示すように、時刻203において、まず、撮像フレームPF22の撮像時間内の検出フレームDF23の、位置211に対応する上からa番目の走査線の検出信号が読み出される。次に、撮像フレームPF22の撮像時間内の検出フレームDF22の、位置212に対応する上からb番目の走査線の検出信号が読み出される。その後、撮像フレームPF22の撮像時間内の検出フレームDF21の、位置213に対応する上からc番目の走査線の検出信号が読み出される。そして、撮像フレームPF21の撮像時間内の検出フレームDF24の、位置214に対応する上からd番目の走査線の検出信号が読み出される。
As shown in FIG. 7B, at
次に、時刻203の1時刻後において、まず、撮像フレームPF22の撮像時間内の検出フレームDF23の、上からa+4番目の走査線の検出信号が読み出される。次に、撮像フレームPF22の撮像時間内の検出フレームDF22の、上からb+4番目の走査線の検出信号が読み出される。その後、撮像フレームPF22の撮像時間内の検出フレームDF21の、上からc+4番目の走査線の検出信号が読み出される。そして、撮像フレームPF21の撮像時間内の検出フレームDF24の、上からd+4番目の走査線の検出信号が読み出される。
Next, one time after the
そして、時刻203の2時刻後において、撮像フレームPF22の撮像時間内の検出フレームDF23の、上からa+8番目の走査線の検出信号が読み出され、以降も同様に検出信号の読み出しが行われる。
Then, two hours after the
以上のように、第1の方法を用いた読み出しでは、同一の時刻に読み出す必要のある4枚の検出フレームDF21乃至DF24の検出信号が、検出フレームごとに時分割で読み出され、各検出フレームの検出信号は4走査線ごとに読み出される。 As described above, in the reading using the first method, the detection signals of the four detection frames DF21 to DF24 that need to be read at the same time are read out in time division for each detection frame, and each detection frame is read out. These detection signals are read every four scanning lines.
なお、上述した説明では、読出対象とする走査線を1/4に間引いたが、走査線を1/2に間引くとともに、1本の走査線内の読出対象とする画素数を1/2に間引いて、2本の走査線の検出信号を同時に読み出すことにより、検出信号の1フレーム当たりの読み出し時間を1/4にするようにしてもよい。 In the above description, the scanning line to be read is thinned to 1/4, but the scanning line is thinned to 1/2 and the number of pixels to be read in one scanning line is halved. By thinning out and simultaneously reading out the detection signals of the two scanning lines, the read time per frame of the detection signal may be reduced to 1/4.
図8を参照して、この場合に読み出される検出信号について説明する。なお、図8において、横軸は、画面内の水平方向の位置を表し、縦軸は、画面内の走査線の垂直方向の位置を表している。また、図8において丸は画素を表している。 The detection signal read in this case will be described with reference to FIG. In FIG. 8, the horizontal axis represents the horizontal position in the screen, and the vertical axis represents the vertical position of the scanning line in the screen. In FIG. 8, circles represent pixels.
図8に示すように、4本の走査線の全画素からなる間引きブロック250を単位として、読出対象が間引きされる。
As shown in FIG. 8, the reading target is thinned out with a thinning
具体的には、例えば、間引きブロック250内の上から1番目の走査線の1つおきの画素と、上から3番目の走査線の1つおきの画素(図中黒丸)の画素部80(120)に蓄積される電荷が、それぞれ異なる読み出し線31を介して同時に検出信号として読み出される。
Specifically, for example, every other pixel of the first scanning line from the top in the thinning
なお、間引きブロック250内の読出対象となる2本の走査線においては、1つおきの画素ごとに検出信号が読み出されるので、画面内の水平方向の画素数分だけ設けられる読み出し線31を介して、2本の走査線の検出信号を同時に読み出すことができる。
In the two scanning lines to be read out in the thinning
また、間引きブロック250内の上から1番目の走査線の1つおきの画素と、上から3番目の走査線の1つおきの画素(図中黒丸)以外の画素(図中白丸)の画素部80(120)に蓄積される電荷は検出信号として読み出されない。
In addition, every other pixel of the first scanning line from the top in the thinning
次に、図9を参照して、第2の方法について説明する。 Next, the second method will be described with reference to FIG.
第2の方法は、近隣の画素の検出信号を加算して読み出す方法である。 The second method is a method of adding and detecting detection signals of neighboring pixels.
具体的には、図9に示すように、撮像部21の前段に設けられたカラーフィルタ21Aは、R,G,Bの各色のカラーフィルタがベイヤ配置されることにより構成される。そして、カラーフィルタ21Aを通過した光が、撮像部21のフォトダイオード81(121)で光電変換される。その結果、撮像画像信号および検出信号としては、R,G,Bのいずれかの色の信号、即ち、カラーの信号が読み出されることになる。
Specifically, as shown in FIG. 9, the
しかしながら、検出信号が、カラーの信号ではなく、グレーの信号であっても、撮像画像内の被写体の動きを検出することができる。 However, even if the detection signal is not a color signal but a gray signal, the movement of the subject in the captured image can be detected.
そこで、第2の方法では、近隣の各色の画素の検出信号を加算し、その結果得られる擬似的なグレーの信号を検出信号として生成する。図9の例では、4×4の画素からなるウィンドウ270の検出信号を加算して読み出す。
Therefore, in the second method, detection signals of neighboring pixels of each color are added, and a pseudo gray signal obtained as a result is generated as a detection signal. In the example of FIG. 9, the detection signals of the
次に、図10を参照して、図9のウィンドウ270単位で検出信号を加算して読み出す場合の読み出し回路34の詳細な構成について説明する。
Next, with reference to FIG. 10, a detailed configuration of the
第2の方法では、図10の検出用垂直走査回路29が、カラーフィルタ21Aのウィンドウ270に対応する4つの制御線30を同時に選択する。これにより、読み出し線31において、ウィンドウ270を構成する水平方向が同一の位置の4本の走査線上の画素の検出信号がそれぞれ加算され、その結果得られる信号(以下、4画素合算検出信号という)が出力される。
In the second method, the detection
例えば、図10の例では、一番右側の読み出し線31において、R,G,R,Bの4つの画素の検出信号が加算され、右から2番目の読み出し線31において、G、B,G,Bの4つの画素の検出信号が加算される。
For example, in the example of FIG. 10, detection signals of four pixels R, G, R, and B are added in the
以上のように、第2の方法では、4本の走査線が同時に選択されて、検出信号が読み出されるので、4本の走査線の検出信号の読み出し時間が、1本の走査線の検出信号の読み出し時間と同一となる。その結果、検出信号の1フレーム当たりの読み出し時間は1/4に削減される。 As described above, in the second method, four scanning lines are simultaneously selected and the detection signal is read out, so that the detection time of the detection signal of the four scanning lines is the detection signal of one scanning line. Is the same as the read time of. As a result, the readout time of the detection signal per frame is reduced to 1/4.
また、検出用カラム並列ADC32は、図10に示すように、並列に接続された、画面内の水平方向の画素数のADC280から構成される。そして、各ADC280には、そのADC280に対応する水平方向の画素の画素部80(120)に接続される読み出し線31が接続されている。
As shown in FIG. 10, the detection
従って、第2の方法では、4つのADC280に、それぞれに接続されている読み出し線31を介して、各ADC280に対応する水平方向の画素の4画素合算検出信号が同時に供給される。そして、各ADC280は、その4画素合算検出信号に対してA/D変換を行い、その結果得られるデジタル信号を、信号線33を介して読み出し回路34に供給する。
Therefore, in the second method, the four pixel total detection signals of the pixels in the horizontal direction corresponding to the
さらに、図10において、読み出し回路34は、加算回路291、信号線292、および検出用読み出し回路293により構成される。
Further, in FIG. 10, the
加算回路291は、4つの信号線33を介して供給されるウィンドウ270の4つの4画素合算検出信号をデジタル的に加算する。これにより、ウィンドウ270を構成する、8個のGの画素と4個のRおよびBの画素からなる4×4の画素の全ての検出信号が加算された結果が、擬似的な輝度情報として算出される。
The adder circuit 291 digitally adds the four 4-pixel sum detection signals of the
検出用読み出し回路293は、加算回路291により加算された結果得られる擬似的な輝度情報を検出信号として読み出し、信号線35を介して出力する。従って、1フレーム当たりの検出信号のデータ量は、1/16に削減される。
The
以上のように、第2の方法では、ウィンドウ270単位で検出信号が加算されるため、検出感度を向上させることができる。即ち、検出信号は高速のフレームレートで読み出されるので、画素部80(120)における電荷の蓄積時間が短い。従って、蓄積電荷の増加量が少なくなり、その蓄積電荷に対応する検出信号に基づく動き検出の検出感度が悪くなる場合がある。第2の方法では、ウィンドウ270単位で検出信号が加算されるので、検出信号の増加分が多くなり、検出感度が向上する。
As described above, in the second method, the detection signal is added in units of the
なお、図10では、1つのウィンドウ270の検出信号の読み出しについて説明したが、ウィンドウ270単位の検出信号の読み出しは、垂直方向が同一のウィンドウ270については同時に行われる。
In FIG. 10, the reading of the detection signal of one
ウィンドウ270単位の検出信号の読み出しのタイミングについては、第1の方法の場合と同様であるので、説明は省略する。第2の方法では、ウィンドウ270の垂直方向の画素数が、第1の方法の走査線の間引き数に相当する。
The timing of reading the detection signal in units of
なお、上述した説明では、第2の方法において、ウィンドウ270を構成する全画素の検出信号が加算されたが、ウィンドウ270を構成する全画素の検出信号が平均化されるようにしてもよい。
In the above description, in the second method, the detection signals of all the pixels constituting the
次に、図11を参照して、第3の方法について説明する。 Next, the third method will be described with reference to FIG.
第3の方法は、検出信号を部分的に読み出す方法である。 The third method is a method of partially reading the detection signal.
図11は、読出対象の検出信号に対応する画面内の領域の例を示している。なお、図11において、横方向が画面の水平方向であり、縦方向が画面の垂直方向である。 FIG. 11 shows an example of a region in the screen corresponding to the detection signal to be read. In FIG. 11, the horizontal direction is the horizontal direction of the screen, and the vertical direction is the vertical direction of the screen.
第3の方法では、例えば、図11の画面300において、図中斜線が付された領域301の検出信号が読み出され、他の領域の検出信号は読み出されない。図11の例では、画面300の垂直方向には、位置Y1乃至Y4に4個の領域301が設けられ、水平方向には位置X1乃至X7に7個の領域301が設けられている。即ち、画面300には合計28個の領域301が設けられている。
In the third method, for example, on the
なお、検出信号の読み出しは、走査線ごとに行われるので、垂直方向の位置が同一である領域301は、走査線単位で同時に読み出される。例えば、垂直方向の位置がY1で、水平方向の位置がX1乃至X7のいずれかである7個の領域301は、走査線単位で同時に読み出される。
Note that since the detection signal is read for each scanning line, the
また、領域301のサイズは、検出対象として想定される動きの大きさに依存する。大きな動きが想定されている場合、領域301のサイズは大きく設定され、小さな動きが想定されている場合、領域301のサイズは小さく設定される。
In addition, the size of the
さらに、画面300内の領域301の数Nvは、画面300内の全走査線数の1/4倍を、領域301内の垂直方向の画素数Avで除算した値である。これにより、検出信号の1フレーム当たりの読み出し時間は、撮像信号の1フレーム当たりの読み出し時間の1/4倍に削減される。
Further, the number Nv of the
次に、図12を参照して、第3の方法を用いた場合の検出信号の読み出しタイミングについて説明する。なお、図12において、横軸は時刻を表し、縦軸は、画面内の走査線の垂直方向の位置を表している。 Next, with reference to FIG. 12, the read timing of the detection signal when the third method is used will be described. In FIG. 12, the horizontal axis represents time, and the vertical axis represents the vertical position of the scanning line in the screen.
ここでは、図12の時刻321における検出信号の読み出しタイミングについて説明するが、他の時刻においても同様である。
Here, the detection signal readout timing at
図12に示すように、時刻321では、撮像フレームPF22の撮像時間内の検出フレームDF23の垂直方向の位置Y1、検出フレームDF22の位置Y2、および検出フレームDF21の位置Y3、並びに撮像フレームPF21の撮像時間内の検出フレームDF24の位置Y4の領域301の検出信号を読み出す必要がある。
As shown in FIG. 12, at
従って、時刻321では、各フレームの垂直方向の位置が同一である7個の領域301ごとに、読み出しが時分割で行われる。
Therefore, at
具体的には、時刻321において、まず、撮像フレームPF22の撮像時間内の検出フレームDF23の垂直方向の位置Y1の7個の領域301の検出信号が読み出される。そして、検出フレームDF22の位置Y2の7個の領域301の検出信号が読み出される。次に、検出フレームDF21の位置Y3の7個の領域301の検出信号が読み出される。最後に、撮像フレームPF21の撮像時間内の検出フレームDF24の位置Y4の7個の領域301の検出信号が読み出される。
Specifically, at
なお、垂直方向の位置が同一である7個の領域301ごとに読み出しを行うのではなく、各領域301の検出信号を走査線ごとにインターリーブして読み出すようにしてもよい。
Note that the detection signal of each
この場合、時刻321において、まず、検出フレームDF23の位置Y1の7個の領域301の1番上の走査線の検出信号が読み出される。そして、検出フレームDF22の位置Y2の7個の領域301の1番上の走査線の検出信号が読み出される。次に、検出フレームDF21の位置Y3の7個の領域301の1番上の走査線の検出信号が読み出される。そして、検出フレームDF24の位置Y4の7個の領域301の1番上の走査線の検出信号が読み出される。
In this case, at
その後、検出フレームDF23の位置Y1の領域301に戻り、位置Y1の7個の領域301の上から2番目の走査線の検出信号が読み出される。以降も同様にして読み出しが行われ、その結果、検出フレームDF23の位置Y1、検出フレームDF22の位置Y2、検出フレームDF21の位置Y3、および検出フレームDF24の位置Y4の領域301の検出信号が読み出される。
Thereafter, the processing returns to the
なお、動きベクトルを検出する方法として、コーナトラッキング法が採用された場合、検出信号を部分的に読み出す第3の方法で検出信号を読み出すと、読み出される検出信号の領域にちょうどコーナが存在するとは限らない。そのため、読出対象とする検出信号の領域301は水平方向に移動されたり、垂直方向に移動されたりする。
In addition, when the corner tracking method is adopted as a method for detecting the motion vector, when the detection signal is read out by the third method of partially reading out the detection signal, a corner is just present in the read detection signal region. Not exclusively. Therefore, the
また、撮像時間内の検出フレームは、勿論、4枚に限定されない。従って、例えば、撮像時間内の検出フレームが8枚や16枚である場合、検出信号の1フレーム当たりの読み出し時間は、撮像画像信号の1フレーム当たりの読み出し時間の1/8や1/16に削減される。 Of course, the number of detection frames within the imaging time is not limited to four. Therefore, for example, when the number of detection frames within the imaging time is 8 or 16, the readout time per frame of the detection signal is 1/8 or 1/16 of the readout time per frame of the captured image signal. Reduced.
具体的には、第1の方法では、8枚または16枚の検出フレームの検出信号が、検出フレームごとに時分割で読み出され、各検出フレームの検出信号は、8走査線や16走査線ごとに読み出される。 Specifically, in the first method, detection signals of 8 or 16 detection frames are read out in a time-sharing manner for each detection frame, and the detection signals of each detection frame are 8 scanning lines or 16 scanning lines. Read every time.
なお、図8で説明した場合と同様に、読出対象とする走査線と走査線内の読出対象とする画素を間引くようにしてもよい。この場合、撮像時間内の検出フレームの数によっては、読み出し線31や読み出し回路34等を増やさないと柔軟な読み出しができないことがある。また、間引きパターンや間引かれる画素の位置が固定されることもある。
As in the case described with reference to FIG. 8, the scanning line to be read and the pixels to be read in the scanning line may be thinned out. In this case, depending on the number of detection frames within the imaging time, flexible readout may not be possible without increasing the number of
また、第2の方法では、8枚または16枚の検出フレームの検出信号が、検出フレームごとに時分割で読み出され、各検出フレームの検出信号は、垂直方向の画素数が8個または16個であるウィンドウ単位で読み出される。 In the second method, the detection signals of 8 or 16 detection frames are read out in a time division manner for each detection frame, and the detection signal of each detection frame has 8 or 16 pixels in the vertical direction. It is read in units of windows.
さらに、第3の方法では、8枚または16枚の検出フレームの検出信号が、検出フレームごとに時分割で読み出され、各検出フレームの検出信号は、設定された領域についてのみ読み出される。この領域の画面内の数Nvと領域内の垂直方向の画素数Avの関係は、撮像時間内の検出フレームの数をFnとし、画面内の全走査線数をBvとするとき、以下の式(1)で表される。 Further, in the third method, the detection signals of 8 or 16 detection frames are read out in time division for each detection frame, and the detection signals of each detection frame are read out only for the set region. The relationship between the number Nv of the region in the screen and the number of vertical pixels Av in the region is expressed as follows when the number of detection frames in the imaging time is Fn and the total number of scanning lines in the screen is Bv. It is represented by (1).
Bv=Av×Nv×Fn
・・・(1)
Bv = Av × Nv × Fn
... (1)
また、上述した説明では、検出信号の1フレーム当たりの読み出し時間を削減するために、第1乃至第3の方法を用いたが、検出信号の1フレーム当たりのデータ量を削減するために用いるようにしてもよい。例えば、画素単位で細かい動きを検出する必要がない場合には、第1乃至第3の方法を用いて、検出信号の1フレーム当たりのデータ量を削減し、信号処理部12による処理を軽減するようにしてもよい。
In the above description, the first to third methods are used to reduce the reading time of the detection signal per frame. However, the method is used to reduce the data amount of the detection signal per frame. It may be. For example, when it is not necessary to detect a fine motion in pixel units, the first to third methods are used to reduce the amount of data per frame of the detection signal and reduce the processing by the
次に、図13を参照して、フレーム差分部44による処理について説明する。
Next, processing performed by the
イメージセンサ11では、検出信号の読み出しを行っても、蓄積電荷はそのまま保持されるため、撮像信号の読み出しにより蓄積電荷がリセットされた後の最初の検出フレームを除いて、前の検出フレームとの差分を、現在の検出フレームの動き検出画像信号として求める必要がある。従って、フレーム差分部44は、イメージセンサ11から供給される連続する2枚の検出フレームの検出信号の差分を動き検出画像信号として求める。
In the
例えば、図13Aに示すように、フォトダイオード81(121)による受光量と検出信号の関係が線形になっている場合、フレーム差分部44では、以下のような動き検出画像信号が算出される。なお、図13において、横軸は、蓄積電荷に対応するフォトダイオード81(121)による受光量を表し、縦軸は検出信号を表している。
For example, as shown in FIG. 13A, when the relationship between the amount of light received by the photodiode 81 (121) and the detection signal is linear, the
図13Aにおいて、例えば、ある検出フレームの検出信号は検出信号F1であり、次の検出フレームの検出信号は検出信号F2である。しかしながら、検出信号F1の読み出しは非破壊読み出しであるため、検出信号F1に対応する蓄積電荷はそのまま保持されている。従って、検出信号F2に対応する検出フレームの受光量は、その検出フレームの蓄積電荷に対応する受光量P2から、その検出フレームまでに蓄積されていた電荷に対応する受光量P1を減算した値(P2−P1)である。 In FIG. 13A, for example, the detection signal of a certain detection frame is the detection signal F1, and the detection signal of the next detection frame is the detection signal F2. However, since the reading of the detection signal F1 is nondestructive reading, the accumulated charge corresponding to the detection signal F1 is held as it is. Therefore, the received light amount of the detection frame corresponding to the detection signal F2 is a value obtained by subtracting the received light amount P1 corresponding to the charge accumulated up to the detection frame from the received light amount P2 corresponding to the accumulated charge of the detection frame ( P2-P1).
よって、フレーム差分部44では、受光量P2に対応する検出信号F2と、受光量P1に対応する検出信号F1との差分を、受光量P2に対応する検出フレームの動き検出用画像信号として求める。
Therefore, the
また、図13Bに示すように、フォトダイオード81(121)による受光量と検出信号の関係が非線形になっている場合、フレーム差分部44では、図13Aで示した線形の場合と同様に、動き検出画像信号が算出される。即ち、ある検出フレームの検出信号F3と、次の検出フレームの検出信号F4との差分が、検出信号F4に対応する検出フレームの動き検出用画像信号として求められる。
Also, as shown in FIG. 13B, when the relationship between the amount of light received by the photodiode 81 (121) and the detection signal is nonlinear, the
次に、図14および図15を参照して、動きベクトルの軌跡を求める方法について説明する。 Next, a method for obtaining a motion vector locus will be described with reference to FIGS.
なお、図14および図15の例では、検出フレームのフレーム数は8枚となっている。また、図14および図15において、正方形は画素を表している。このことは、後述する図16乃至図18においても同様である。 In the example of FIGS. 14 and 15, the number of detection frames is eight. In FIGS. 14 and 15, the square represents a pixel. This also applies to FIGS. 16 to 18 described later.
まず、図14に示すように、最終の検出フレーム内の位置351の画素352について、前の連続する7枚の検出フレームでの動きベクトル(図中矢印)から、画素352と同一の被写体の画素の各検出フレームでの相対位置361乃至368を認識する。そして、図15に示すように、相対位置361乃至367を順に通り、最後に位置351を通る、スプライン関数などによって滑らかな曲線で近似された経路371が、動きベクトルの軌跡として求められる。
First, as shown in FIG. 14, for the
次に、図16乃至図18を参照して、動きぼけPSFを求める方法について説明する。 Next, a method for obtaining the motion blur PSF will be described with reference to FIGS.
まず、図15に示した経路371が動きベクトルの軌跡として求められた場合、その動きベクトルの軌跡に基づいて、撮像時間内において画素352と同一の被写体からの光が、経路371の各点にどのくらいの時間滞在したかが求められる。この滞在時間の長さは、各点における画素352に対応する光の滞在による受光量への影響度合に比例する。
First, when the
即ち、動きが速いほど、つまり、ある検出フレームの相対位置から次の検出フレームの相対位置までの距離が長いほど、画素352に対応する光の滞在時間は短く、その光の滞在が及ぼす影響は少ない。そして、動きが遅いほど、つまり、ある検出フレームの相対位置から次の検出フレームの相対位置までの距離が短いほど、画素352に対応する光の滞在時間は長く、その光の滞在が及ぼす影響は大きい。
That is, the faster the movement, that is, the longer the distance from the relative position of one detection frame to the relative position of the next detection frame, the shorter the stay time of light corresponding to the
そこで、経路371の各点における滞在時間が求められると、図16に示すように、その滞在時間に応じて、画面内の各画素の重みが決定され、この重みを示す関数が動きぼけPSFとして求められる。なお、図16では、画素352についての重みの総和を100と規格化したときの各画素の重みの値が、各画素を表す正方形内に記載されている。但し、画面内の空白の画素に対応する重みの値は0である。
Therefore, when the stay time at each point on the
なお、図16では、光学的なぼけがないものとし、光学系のPSFを理想的な点と仮定している。しかしながら、実際には光学的なぼけが存在し、光学系のPSF自体が広がりを持っている。この広がりの大きさは、画素と同レベルである場合もあるし、画素サイズ以上の場合もある。 In FIG. 16, it is assumed that there is no optical blur, and the PSF of the optical system is assumed to be an ideal point. However, optical blur is actually present, and the PSF itself of the optical system has a wide spread. The size of the spread may be the same level as the pixel or may be greater than the pixel size.
図17は、このような光学系のPSFの広がりを考慮した場合の、動きぼけPSFの求め方の概念図である。 FIG. 17 is a conceptual diagram of how to obtain the motion blur PSF when considering the spread of the PSF of the optical system.
なお、図17では、経路371を構成する各点を中心とした円391が、光学系のPSFの広がりを示している。光学系のPSFでは、一般的に、円391の中心で値が大きく、周辺に行くにしたがって減少するようになっている。この光学系のPSFの広がりを勘案して、各画素の重みが決定され、動きぼけPSFが求められる。このように、光学系のPSFの広がりを考慮することで、動きぼけをより正確に削減する動きぼけPSFを求めることができる。
In FIG. 17, a
また、実際の光学系のPSFの広がり、形状は色ごとに異なるものである。通常、撮影時の解像度を最も高くするため、G成分の光学系のPSFが小さくなるように光学系が設計されるため、R成分やB成分の光学系のPSFはG成分以上の広がりを有する。 Further, the spread and shape of the PSF of the actual optical system are different for each color. Usually, the optical system is designed so that the PSF of the G component optical system becomes small in order to maximize the resolution at the time of photographing. Therefore, the PSF of the R component or B component optical system is wider than the G component. .
図18は、このような色ごとの光学系のPSFの広がりを考慮した場合の、動きぼけPSFの求め方の概念図である。 FIG. 18 is a conceptual diagram of how to obtain a motion blur PSF when considering the spread of the PSF of the optical system for each color.
図18の例では、G成分の光学系のPSFの広がり401が最も小さく、B成分の光学系のPSFの広がり402は広がり401より少し大きい。また、R成分の光学系のPSFの広がり403は最も大きい。このような各色での光学系のPSFの広がりの違いを考慮して、色ごとに動きぼけPSFが求められる。このように、色ごとに動きぼけPSFを求め、各色成分の動きぼけの削減処理に異なる動きぼけPSFを用いることにより、動きぼけの削減精度を向上させることが可能となる。
In the example of FIG. 18, the PSF spread 401 of the G component optical system is the smallest, and the PSF spread 402 of the B component optical system is slightly larger than the
なお、光学系は一般的に軸対象であるため、光学系のPSFは一般的に点対象(軸対象)であるが、撮像面の周辺では光学系のPSFは点対象とならない場合がある。このような場合においては、被写体や撮像装置10の動きに回転成分がある場合、回転による光学系のPSFへの影響も考慮して、動きぼけPSFを求める必要がある。
Since the optical system is generally an axis object, the PSF of the optical system is generally a point object (axis object), but the PSF of the optical system may not be a point object around the imaging surface. In such a case, if there is a rotation component in the motion of the subject or the
次に、図19のフローチャートを参照して、図1の撮像装置10による画像処理について説明する。この画像処理は、例えば、ユーザにより撮像が指令されたとき、開始される。
Next, image processing by the
ステップS11において、撮像部21は、外部からの光を画素単位で光電変換し、電荷の蓄積を開始する。ステップS12において、撮像部21は、検出用垂直走査回路29により選択された制御線30に対応する、撮像時間より短い時間内に画素単位で蓄積された電荷を、検出信号として非破壊で読み出す。この検出信号は、検出用カラム並列ADC32によりデジタル信号に変換され、読み出し回路34および信号線35を介して信号処理部12に出力される。
In step S <b> 11, the
ステップS13において、信号処理部12のフレーム差分部44は、読み出し回路32から信号線35を介して供給される連続する2枚の検出フレームの検出信号の画素ごとの差分を、動き検出画像信号として求める。そして、フレーム差分部44は、この動き検出画像信号を、信号線45を介してノイズリダクション部46に供給する。
In step S <b> 13, the
なお、読み出し回路32から、最初の検出フレームの検出信号だけが供給されている場合、ステップS13乃至S16の処理はスキップする。
Note that when only the detection signal of the first detection frame is supplied from the
ステップS14において、ノイズリダクション部46は、フレーム差分部44から供給される動き検出画像信号のノイズレベルを低減し、その結果得られる動き検出画像信号を、信号線47を介して動き検出部48に供給する。
In step S <b> 14, the
ステップS15において、動き検出部48は、ノイズリダクション部46から供給される動き検出画像信号に基づいて、その動き検出画像信号に対応する動き検出用画像における各サンプリング点の動きベクトルを検出する。そして、動き検出部48は、検出された各サンプリング点の動きベクトルを、信号線49を介して動きベクトル場生成部50に供給する。
In step S <b> 15, based on the motion detection image signal supplied from the
ステップS16において、動きベクトル場生成部50は、動き検出部48から供給される各サンプリング点の動きベクトルに基づいて、画面内の全ての点の動きベクトルを演繹し、補間する。そして、動きベクトル場生成部50は、補間の結果得られる画面内の全ての点の動きベクトルを、信号線51を介して軌跡補間部52に供給する。
In step S <b> 16, the motion vector
ステップS17において、検出用垂直走査回路29は、所定数(図6の例では4枚)の検出フレームの検出信号が読み出されたかを判定する。ステップS17で、まだ所定数の検出フレームの検出信号が読み出されていないと判定された場合、処理はステップS12に戻り、上述した処理が繰り返される。
In step S <b> 17, the detection
一方、ステップS17で所定数の検出フレームの検出信号が読み出されたと判定された場合、処理はステップS18に進み、軌跡補間部52は、動きベクトル場生成部50から供給される、連続する所定数の各動き検出用画像内の全ての点の動きベクトルに基づいて、スプライン関数などによって、その動き検出用画像に対応する撮像画像内の被写体の動きの軌跡を求める。そして、軌跡補間部52は、求められた動きの軌跡を、信号線53を介してPSF生成部54に供給する。
On the other hand, when it is determined in step S17 that the detection signals of the predetermined number of detection frames have been read, the process proceeds to step S18, and the
ステップS19において、PSF生成部54は、軌跡補間部52から供給される動きベクトルの軌跡と、光学PSFデータメモリ55から供給される光学PSFデータとに基づいて、動きぼけPSFを求める。これにより、動きぼけと光学系によるぼけの状況を表すPSFが、動きぼけPSFとして求められる。そして、PSF生成部54は、求められた動きぼけPSFを表す動きぼけPSFデータを、信号線57を介して動きぼけ削減部59に供給する。
In step S <b> 19, the
ステップS20において、撮像部21は、画像用垂直走査回路22により選択された制御線23に対応する、撮像時間内に画素単位で蓄積された電荷に対応する信号を、撮像画像信号として読み出す。この撮像画像信号は、バッファメモリ43に供給されて保持される。ステップS21において、撮像部21は、蓄積電荷をリセットする。
In step S20, the
ステップS22において、動きぼけ削減部59は、PSF生成部54から供給される動きぼけPSFデータを用いて、バッファメモリ43に記憶されている撮像画像信号の動きぼけを削減する。
In step S <b> 22, the motion
具体的には、撮像画像信号に対して、動きぼけPSFに対応するぼけの問題の逆問題をそのまま解くとノイズの影響で、撮像画像信号の画面が大きく乱れたり、画面のエッジ部分周辺で強いアーティファクトが発生したりする。そのため、この問題を低減しながら良好な動きぼけの削減を実現するために、動きぼけ削減部59は、WienerフィルタやRichardson-Lucy法などにより、動きぼけPSFを用いた動きぼけの削減を行う。例えば、動きぼけ削減部59は、動きぼけPSFをウィンドウとして使用してWienerフィルタを作成し、撮像画像信号の動きぼけを削減する。
Specifically, if the inverse problem of the blur problem corresponding to motion blur PSF is solved as it is for the captured image signal, the screen of the captured image signal is greatly disturbed by the influence of noise or strong around the edge of the screen Artifacts may occur. For this reason, in order to achieve a good reduction in motion blur while reducing this problem, the motion
ステップS23において、撮像部21は、撮像を終了するかどうか、例えば、ユーザにより撮像の終了が指令されたかどうかを判定する。ステップS23で撮像を終了しないと判定された場合、処理はステップS11に戻り、上述した処理が繰り返される。一方、ステップS23で撮像を終了すると判定された場合、処理は終了する。
In step S23, the
なお、図1の撮像装置10では、検出用垂直走査回路29と画像用垂直走査回路22が別々に設けられたが、検出用垂直走査回路29と画像用垂直走査回路22は共通化されてもよい。
1, the detection
図20は、このような場合のイメージセンサ11の詳細構成例を示している。
FIG. 20 shows a detailed configuration example of the
図20のイメージセンサ11は、画像用カラム並列ADC25、読み出し回路27および34、検出用カラム並列ADC32、撮像部451、垂直走査回路452、制御線453、読み出し線454などにより構成される。
20 includes an image
なお、図20では、説明の便宜上、図示は省略するが、イメージセンサ11にはカラーフィルタ21Aも設けられる。また、図20では、説明の便宜上、撮像部451のうちの1画素分の構成、即ち1画素を撮像する画素部の構成について図示してある。図20において、図1と同一のものには同一の符号を付してあり、説明は繰り返しになるので省略する。
In FIG. 20, for convenience of explanation, illustration is omitted, but the
図20に示すように、撮像部451内の1画素を撮像する画素部460は、図3の撮像画像読出部122と検出用画像読出部123を共通化したものである。具体的には、画素部460には、光電変換を行うフォトダイオード461が設けられ、このフォトダイオード461には、MOSトランジスタ462のバックゲート463が接続されている。また、MOSトランジスタ462のソースは電源464に、ゲートは制御線453に、ドレインは読み出し線454にそれぞれ接続されている。
As shown in FIG. 20, a
以上のように構成される画素部460では、フォトダイオード461で発生した電荷がバックゲート463に蓄積される。垂直走査回路452は、画素部460の検出信号または撮像画像信号を読み出す際、制御線453を選択し、制御線453を介してMOSトランジスタ462のゲートに検出用読み出し信号または撮像用読み出し信号を印加する。これにより、MOSトランジスタ462がオンになり、その結果、バックゲート463に蓄積された電荷量に依存した信号が、検出信号または撮像画像信号として、読み出し線454を介して出力される。
In the
即ち、制御線453は、図3の制御線30と23が共通化されたものであり、読み出し線454は、図3の読み出し線31と24が共通化されたものである。
That is, the
以上のように、図20のイメージセンサ11では、図1の検出用垂直走査回路29と画像用垂直走査回路22が共通化されるので、撮像画像読出部122と検出用画像読出部123、制御線30と23、読み出し線31と24もそれぞれ共通化され、回路規模を削減することができる。
As described above, in the
但し、図20に示したように、図1の検出用垂直走査回路29と画像用垂直走査回路22が共通化される場合には、検出信号の読み出しのタイミングが、撮像画像信号の読み出しのタイミングと重ならないようにする必要がある。これに対して、図1に示したように、検出用垂直走査回路29と画像用垂直走査回路22が別々に設けられる場合、検出信号の読み出しと撮像画像信号の読み出しをそれぞれ独立に行うことが可能であり、読み出し動作の柔軟性を保つことができる。
However, as shown in FIG. 20, when the detection
以上のように、イメージセンサ11は、1フレームの撮像時間内に検出信号を複数回非破壊で読み出し、1フレームの撮像時間ごとに撮像画像信号を読み出すので、撮像画像信号を取得するイメージセンサ11を用いて、撮像画像内の被写体の動きを精度良く検出することができる。
As described above, the
これに対して、上述した非特許文献1には、1つのイメージセンサを用いて、周辺の画素を動き検出に使用する例について記載されているが、この場合、動きの検出領域が限定されてしまい、動きを精度良く検出することは難しい。 In contrast, Non-Patent Document 1 described above describes an example in which one image sensor is used and peripheral pixels are used for motion detection. However, in this case, the motion detection area is limited. Therefore, it is difficult to accurately detect the movement.
また、撮像装置10は、検出信号を非破壊で読み出すので、撮像画像信号そのものを劣化させることがない。さらに、撮像装置10は、検出信号を非破壊で読み出すので、様々な読み出し動作(パターン)に対応することができる。そのため、推定される撮像場所や撮像画像の時間的な変化によって、検出信号の読み出し方法や動き検出のアルゴリズムを適応的に変化させ、高精度の動きぼけの削減を実現することができる。
Moreover, since the
また、イメージセンサ11において、検出信号の読み出し用に追加されるハードウェアは、検出用画像読出部83(123)、検出用垂直走査回路29、検出用カラム並列ADC32、読み出し回路34などであり、ハードウェアの増加は少ない。
Further, in the
なお、イメージセンサ11としては、CMOSイメージセンサではなく、CCDイメージセンサを用いるようにしてもよい。この場合、イメージセンサ11のフォトダイオードに蓄積された電荷は読み出しゲートにより、画面内全域で同時に垂直転送CCDへ移動されるため、各フレームにおいて、電荷の蓄積期間は同一となる。これを撮像の際の電荷蓄積時間の同時性と呼ぶ。
The
また、イメージセンサ11としてCCDイメージセンサが用いられる場合、電荷蓄積時間の同時性があるため、CMOSイメージセンサが用いられた場合のように、画像のゆがみの問題(詳細は後述する)、図5で説明した露光時間が比較的短い場合の問題、図6で説明した複数の検出フレームを同時に読み出す必要がある問題等は発生しない。
Further, when a CCD image sensor is used as the
なお、画像のゆがみの問題とは、イメージセンサ11がCMOSイメージセンサである場合に発生する問題である。詳細には、CMOSイメージセンサは、画面の上の走査線から順次走査線ごとに読み出しを行うので、読み出しのタイミングが走査線ごとに異なる。そのため、電荷の蓄積タイミングも走査線ごとに異なる。従って、イメージセンサ11がCMOSイメージセンサである場合、イメージセンサ11で速い動きの物体を撮像すると、画面の上部と下部で撮像のタイミングが異なり、画像のゆがみが発生することがある。
The image distortion problem is a problem that occurs when the
また、上述した説明では、撮像画像信号と検出信号の読み出しレートは同一であるものとしたが、異なっていてもよい。但し、撮像画像信号と検出信号の読み出しレートが同一ではない場合、撮像画像信号の読み出しを行ってから、即ち画素部80(120)の蓄積電荷がリセットされてから、検出信号が読み出されるまでの時間が、画面の位置によって異なる。従って、信号処理部12による処理において、この点を考慮する必要がある。なお、長時間露光の際などには、この点による問題は少なくなる。
In the above description, the read rate of the captured image signal and the detection signal is the same, but may be different. However, when the readout rate of the captured image signal and the detection signal is not the same, after the readout of the captured image signal, that is, after the accumulated charge of the pixel unit 80 (120) is reset, the detection signal is read out. Time varies depending on the position of the screen. Therefore, this point needs to be considered in the processing by the
本発明は、例えばデジタルスチルカメラやビデオカメラに適用することができる。 The present invention can be applied to, for example, a digital still camera and a video camera.
なお、本明細書において、図19の画像処理は、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。 Note that in this specification, the image processing of FIG. 19 is not limited to processing performed in time series in the order described, but also processing executed in parallel or individually even if not necessarily time-series processing. Is also included.
また、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。 The embodiments of the present invention are not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention.
21 撮像部, 22 画像用垂直走査回路, 29 検出用垂直走査回路, 52 軌跡補間部, 59 動きぼけ削減部, 81 フォトダイオード, 82 撮像画像読出部, 83 検出用画像読出部, 103 バックゲート, 121 フォトダイオード, 122 撮像画像読出部, 123 検出用画像読出部, 133,143 バックゲート, 451 撮像部, 452 垂直走査回路, 461 フォトダイオード, 463 バックゲート
DESCRIPTION OF
Claims (9)
前記光電変換手段により得られた電荷を画素単位で蓄積する蓄積手段と、
1フレームの撮像時間内に、前記蓄積手段により蓄積されている電荷に対応する信号を直後に撮像される撮像画像内の被写体の動きを検出するための検出信号として、複数回非破壊で読み出す検出信号読出手段と、
1フレームの撮像時間ごとに、前記蓄積手段により蓄積されている電荷に対応する信号を、撮像画像信号として読み出す撮像画像信号読出手段と
を備える撮像装置。 Photoelectric conversion means for photoelectrically converting light from the outside in units of pixels;
Accumulation means for accumulating charges obtained by the photoelectric conversion means in units of pixels;
Detection in which a signal corresponding to the electric charge accumulated by the accumulating means is read out in a non-destructive manner a plurality of times as a detection signal for detecting a motion of a subject in a picked-up image picked up immediately after one frame of image pickup time Signal reading means;
An imaging apparatus comprising: a captured image signal reading unit that reads out a signal corresponding to the charge accumulated by the accumulation unit as a captured image signal every imaging time of one frame.
前記撮像画像信号読出手段の読み出しを制御する撮像画像信号読出制御手段と
をさらに備え、
前記検出信号読出手段と前記撮像画像信号読出手段は、それぞれ、少なくとも1つのトランジスタを有し、
前記蓄積手段は、前記検出信号読出手段または前記撮像画像信号読出手段の前記トランジスタのバックゲートであり、
前記検出信号読出手段は、前記撮像画像信号読出制御手段が、前記撮像画像信号読出手段の前記トランジスタのゲートに電位を与えることにより、前記検出信号読出手段の前記トランジスタのバックゲートに前記電荷を蓄積させるとともに、前記検出信号読出制御手段が、前記検出信号読出手段の前記トランジスタのゲートに電位を与える場合、前記検出信号読出手段の前記トランジスタの前記バックゲートに蓄積された前記電荷に対応する信号を、前記検出信号として出力することにより、前記検出信号の非破壊読み出しを行い、
前記撮像画像信号読出手段は、前記検出信号読出制御手段が、前記検出信号読出手段の前記トランジスタのゲートに電位を与えることにより、前記撮像画像信号読出手段の前記トランジスタのバックゲートに前記電荷を蓄積させるとともに、前記撮像画像信号読出制御手段が、前記撮像画像信号読出手段の前記トランジスタのゲートに電位を与える場合、前記撮像画像信号読出手段の前記トランジスタの前記バックゲートに蓄積された前記電荷に対応する信号を、前記撮像画像信号として出力することにより、前記撮像画像信号の非破壊読み出しを行う
請求項1に記載の撮像装置。 Detection signal reading control means for controlling reading of the detection signal reading means;
And a captured image signal readout control means for controlling readout of the captured image signal readout means,
Each of the detection signal reading means and the captured image signal reading means has at least one transistor,
The storage means is a back gate of the transistor of the detection signal reading means or the captured image signal reading means,
The detection signal readout means accumulates the electric charge in the back gate of the transistor of the detection signal readout means by the potential of the captured image signal readout control means applying a potential to the gate of the transistor of the captured image signal readout means. And when the detection signal reading control means applies a potential to the gate of the transistor of the detection signal reading means, a signal corresponding to the charge accumulated in the back gate of the transistor of the detection signal reading means is provided. , Nondestructive readout of the detection signal by outputting as the detection signal,
The picked-up image signal reading means stores the charge on the back gate of the transistor of the picked-up image signal reading means by the detection signal reading control means applying a potential to the gate of the transistor of the detection signal reading means. In addition, when the captured image signal readout control unit applies a potential to the gate of the transistor of the captured image signal readout unit, it corresponds to the charge accumulated in the back gate of the transistor of the captured image signal readout unit. The imaging apparatus according to claim 1, wherein non-destructive readout of the captured image signal is performed by outputting a signal to be performed as the captured image signal.
をさらに備え、
前記検出信号読出手段と前記撮像画像信号読出手段は、共通の1つのトランジスタを有し、
前記蓄積手段は、前記トランジスタのバックゲートであり、
前記読出制御手段が前記トランジスタのゲートに電位を与える場合、前記検出信号読出手段が、前記バックゲートに蓄積された前記電荷に対応する信号を、前記検出信号として出力することにより、前記検出信号の非破壊読み出しを行うか、または、前記撮像画像信号読出手段が、前記バックゲートに蓄積された前記電荷に対応する信号を、前記撮像画像信号として出力することにより、前記撮像画像信号の非破壊読み出しを行う
請求項1に記載の撮像装置。 Read control means for controlling reading of the detection signal read means and the captured image signal read means,
The detection signal reading means and the captured image signal reading means have one common transistor,
The storage means is a back gate of the transistor;
When the readout control unit applies a potential to the gate of the transistor, the detection signal readout unit outputs a signal corresponding to the charge accumulated in the back gate as the detection signal, so that the detection signal Non-destructive readout of the captured image signal is performed by performing non-destructive readout or by outputting a signal corresponding to the charge accumulated in the back gate as the captured image signal. The imaging device according to claim 1.
前記撮像画像信号読出手段の読み出しを制御する撮像画像信号読出制御手段と
をさらに備え、
前記検出信号読出手段と前記撮像画像信号読出手段は、それぞれ、少なくとも1つのトランジスタを有し、
前記蓄積手段は、前記検出信号読出手段の前記トランジスタのバックゲートであり、
前記検出信号読出手段は、前記検出信号読出制御手段が、前記検出信号読出手段の前記トランジスタのゲートに電位を与える場合、そのトランジスタの前記バックゲートに蓄積された前記電荷に対応する信号を、前記検出信号として出力することにより、前記検出信号の非破壊読み出しを行い、
前記撮像画像信号読出手段は、前記撮像画像信号読出制御手段が、前記撮像画像信号読出手段の前記トランジスタのゲートに電位を与える場合、前記バックゲートに蓄積された電荷を破壊し、その電荷に対応する信号を前記撮像画像信号として出力することにより、前記撮像画像信号の読み出しを行う
請求項1に記載の撮像装置。 Detection signal reading control means for controlling reading of the detection signal reading means;
And a captured image signal readout control means for controlling readout of the captured image signal readout means,
Each of the detection signal reading means and the captured image signal reading means has at least one transistor,
The storage means is a back gate of the transistor of the detection signal reading means;
When the detection signal reading control unit applies a potential to the gate of the transistor of the detection signal reading unit, the detection signal reading unit outputs a signal corresponding to the charge accumulated in the back gate of the transistor. By outputting as a detection signal, non-destructive reading of the detection signal is performed,
The captured image signal reading means destroys the charge accumulated in the back gate and responds to the charge when the captured image signal read control means applies a potential to the gate of the transistor of the captured image signal read means. The imaging apparatus according to claim 1, wherein the captured image signal is read out by outputting a signal to be performed as the captured image signal.
請求項1に記載の撮像装置。 The imaging apparatus according to claim 1, wherein the detection signal reading unit reads, as the detection signal, a signal corresponding to a charge of a part of pixels among the charges in pixel units accumulated by the accumulation unit.
前記検出手段により検出された前記被写体の動きと、前記撮像画像信号とに基づいて、前記撮像画像信号から動きぼけを削減する削減手段と
をさらに備える
請求項1に記載の撮像装置。 Detecting means for detecting movement of the subject in a captured image captured immediately after the detection signal using the detection signal;
The imaging apparatus according to claim 1, further comprising: a reduction unit that reduces motion blur from the captured image signal based on the movement of the subject detected by the detection unit and the captured image signal.
請求項6に記載の撮像装置。 The imaging apparatus according to claim 6, wherein the detection unit divides the screen of the captured image into a plurality of areas in units of scanning lines, and detects the movement of the subject in the captured image within the imaging time of each area.
請求項6に記載の撮像装置。 7. The motion blur is reduced from the captured image signal based on the movement of the subject, the captured image signal, and an SPF of an optical system that collects light from the outside. Imaging device.
外部からの光を画素単位で光電変換する光電変換ステップと、
前記光電変換ステップの処理により得られた電荷を画素単位で蓄積する蓄積ステップと、
1フレームの撮像時間内に、前記蓄積ステップの処理により蓄積されている電荷に対応する信号を直後に撮像される撮像画像内の被写体の動きを検出するための検出信号として、複数回非破壊で読み出す検出信号読出ステップと、
1フレームの撮像時間ごとに、前記蓄積ステップの処理により蓄積されている電荷に対応する信号を、撮像画像信号として読み出す撮像画像信号読出ステップと
を含む撮像方法。 The imaging device
A photoelectric conversion step for photoelectrically converting light from the outside in units of pixels;
An accumulation step for accumulating charges obtained by the photoelectric conversion step in units of pixels;
A signal corresponding to the charge accumulated by the processing of the accumulation step is detected non-destructively a plurality of times as a detection signal for detecting the movement of the subject in the captured image captured immediately after the image capturing time of one frame. A detection signal reading step for reading;
An imaging method including a captured image signal reading step of reading out a signal corresponding to the charge accumulated by the processing of the accumulation step as a captured image signal every imaging time of one frame.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2008240336A JP2010074584A (en) | 2008-09-19 | 2008-09-19 | Imaging apparatus and imaging method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2008240336A JP2010074584A (en) | 2008-09-19 | 2008-09-19 | Imaging apparatus and imaging method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2010074584A true JP2010074584A (en) | 2010-04-02 |
Family
ID=42205942
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2008240336A Withdrawn JP2010074584A (en) | 2008-09-19 | 2008-09-19 | Imaging apparatus and imaging method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2010074584A (en) |
Cited By (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2012004928A1 (en) * | 2010-07-08 | 2012-01-12 | パナソニック株式会社 | Image capture device |
| JP2012242759A (en) * | 2011-05-23 | 2012-12-10 | Canon Inc | Imaging apparatus, control method therefor, and program |
| WO2014069212A1 (en) * | 2012-10-29 | 2014-05-08 | Sekine Hirokazu | Motion detection solid-state image pickup device and motion detection system |
| JP2015019388A (en) * | 2014-08-26 | 2015-01-29 | 関根 弘一 | Imaging apparatus for motion detection, motion detection camera, and motion detection system |
| JP2015198367A (en) * | 2014-04-01 | 2015-11-09 | キヤノン株式会社 | Imaging apparatus and image processing system |
| JP2016213600A (en) * | 2015-05-01 | 2016-12-15 | キヤノン株式会社 | CONTROL DEVICE, OPTICAL DEVICE, CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM |
| JP2017538360A (en) * | 2014-12-15 | 2017-12-21 | ジーブイビービー ホールディングス エス.エイ.アール.エル. | Image capture with improved temporal resolution and perceived image sharpness |
| WO2018124054A1 (en) * | 2016-12-27 | 2018-07-05 | パナソニックIpマネジメント株式会社 | Imaging device and method for controlling same |
| JP2021044623A (en) * | 2019-09-06 | 2021-03-18 | キヤノン株式会社 | Imaging apparatus and control method for the same |
| JP2021108784A (en) * | 2020-01-07 | 2021-08-02 | キヤノンメディカルシステムズ株式会社 | X-ray diagnostic apparatus |
| US11678081B2 (en) | 2020-02-05 | 2023-06-13 | Panasonic Intellectual Property Managevent Co., Ltd. | Imaging device and image processing method |
-
2008
- 2008-09-19 JP JP2008240336A patent/JP2010074584A/en not_active Withdrawn
Cited By (19)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2012004928A1 (en) * | 2010-07-08 | 2012-01-12 | パナソニック株式会社 | Image capture device |
| JP4917193B2 (en) * | 2010-07-08 | 2012-04-18 | パナソニック株式会社 | Imaging device |
| CN102742278A (en) * | 2010-07-08 | 2012-10-17 | 松下电器产业株式会社 | camera device |
| US8605168B2 (en) | 2010-07-08 | 2013-12-10 | Panasonic Corporation | Image capture device with frame rate correction section and image generation method |
| CN102742278B (en) * | 2010-07-08 | 2015-08-12 | 松下电器产业株式会社 | camera device |
| JP2012242759A (en) * | 2011-05-23 | 2012-12-10 | Canon Inc | Imaging apparatus, control method therefor, and program |
| WO2014069212A1 (en) * | 2012-10-29 | 2014-05-08 | Sekine Hirokazu | Motion detection solid-state image pickup device and motion detection system |
| US9924076B2 (en) | 2012-10-29 | 2018-03-20 | Setech Co., Ltd. | Motion detection solid-state image capturing device and motion detection system |
| JP2015198367A (en) * | 2014-04-01 | 2015-11-09 | キヤノン株式会社 | Imaging apparatus and image processing system |
| US10536679B2 (en) | 2014-04-01 | 2020-01-14 | Canon Kabushiki Kaisha | Imaging apparatus and image processing system having stacked structure |
| JP2015019388A (en) * | 2014-08-26 | 2015-01-29 | 関根 弘一 | Imaging apparatus for motion detection, motion detection camera, and motion detection system |
| JP2017538360A (en) * | 2014-12-15 | 2017-12-21 | ジーブイビービー ホールディングス エス.エイ.アール.エル. | Image capture with improved temporal resolution and perceived image sharpness |
| JP2016213600A (en) * | 2015-05-01 | 2016-12-15 | キヤノン株式会社 | CONTROL DEVICE, OPTICAL DEVICE, CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM |
| WO2018124054A1 (en) * | 2016-12-27 | 2018-07-05 | パナソニックIpマネジメント株式会社 | Imaging device and method for controlling same |
| JP2021044623A (en) * | 2019-09-06 | 2021-03-18 | キヤノン株式会社 | Imaging apparatus and control method for the same |
| JP7410675B2 (en) | 2019-09-06 | 2024-01-10 | キヤノン株式会社 | Imaging device and its control method |
| JP2021108784A (en) * | 2020-01-07 | 2021-08-02 | キヤノンメディカルシステムズ株式会社 | X-ray diagnostic apparatus |
| JP7412180B2 (en) | 2020-01-07 | 2024-01-12 | キヤノンメディカルシステムズ株式会社 | X-ray diagnostic equipment |
| US11678081B2 (en) | 2020-02-05 | 2023-06-13 | Panasonic Intellectual Property Managevent Co., Ltd. | Imaging device and image processing method |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2010074584A (en) | Imaging apparatus and imaging method | |
| US9124809B2 (en) | Image processing apparatus, image pickup apparatus, image processing method, and program | |
| JP5458865B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
| JP5342969B2 (en) | Imaging apparatus and imaging method | |
| JP4987355B2 (en) | Imaging apparatus and imaging method | |
| JP6711612B2 (en) | Image processing apparatus, image processing method, and imaging apparatus | |
| JP2010273245A (en) | Imaging apparatus and shake correction method | |
| US20110080503A1 (en) | Image sensing apparatus | |
| JP2013066145A (en) | Image processing apparatus, image processing method, and program | |
| JP4024581B2 (en) | Imaging device | |
| JP2011097246A (en) | Image processing apparatus, method, and program | |
| WO2013039061A1 (en) | Imaging device, imaging method and recording medium | |
| JP2007104349A (en) | Imaging device | |
| JP2016111568A (en) | Image blur correction control device, imaging apparatus, control method and program thereof | |
| JP4640068B2 (en) | Imaging method and imaging apparatus | |
| JP2005236662A (en) | Imaging method, imaging apparatus, and imaging system | |
| JP2009135713A (en) | Method and apparatus for correcting image distortion caused by camera shake | |
| JP5452269B2 (en) | Imaging device | |
| WO2016203966A1 (en) | Imaging device, imaging method, and program | |
| JP6223135B2 (en) | Imaging apparatus and control method thereof | |
| JP5721552B2 (en) | Imaging apparatus and image composition method | |
| JP2019057893A (en) | Imaging device | |
| US20160028957A1 (en) | Imaging device, a control method for transmitting picture signals, and a program | |
| JP4874864B2 (en) | Imaging device | |
| JP2017098750A (en) | Vector calculation apparatus and vector calculation method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20111206 |