JP2013223210A - Image pickup treatment apparatus, image pickup treatment method, and program - Google Patents
Image pickup treatment apparatus, image pickup treatment method, and program Download PDFInfo
- Publication number
- JP2013223210A JP2013223210A JP2012095424A JP2012095424A JP2013223210A JP 2013223210 A JP2013223210 A JP 2013223210A JP 2012095424 A JP2012095424 A JP 2012095424A JP 2012095424 A JP2012095424 A JP 2012095424A JP 2013223210 A JP2013223210 A JP 2013223210A
- Authority
- JP
- Japan
- Prior art keywords
- color
- pixel
- image
- frame rate
- pixels
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Studio Devices (AREA)
- Color Television Image Signal Generators (AREA)
Abstract
【課題】光量を確保しS/Nを改善しつつ、色にじみを低減した画像を得る。
【解決手段】撮像処理装置は、第1のフレームレートおよびそれよりも低い第2のフレームレートで読み出される画素の両方を有する単板カラー固体撮像素子であって、該単板カラー固体撮像素子は、前記第1および第2のフレームレートで読み出される画素が3:1の割合で交互に並ぶ水平行と、1:3の割合で交互に並ぶ水平行が、垂直方向に交互に並んでいる。また、該撮像処理装置は、入力カラー画像をRGBの3色成分に分離する画像分離部401、各色の入力画像から前記第1のフレームレートの出力画像を生成する単色画像処理部402、403ならびに404、および各色の処理結果画像からカラー画像を生成する画像統合部405を有し、単色画像処理部では、画素値の空間的な滑らかさに関する拘束を、同一水平ライン上あるいは隣接する2つの水平ライン上の同色画素同士に対して適用する。
【選択図】図4An image with reduced color blur is obtained while securing a light amount and improving S / N.
An imaging processing apparatus is a single-plate color solid-state image pickup device having both pixels read out at a first frame rate and a second frame rate lower than the first frame rate, and the single-plate color solid-state image pickup device includes: The horizontal lines in which the pixels read out at the first and second frame rates are alternately arranged at a ratio of 3: 1 and the horizontal lines in which the pixels are alternately arranged at a ratio of 1: 3 are alternately arranged in the vertical direction. The imaging processing apparatus also includes an image separation unit 401 that separates an input color image into RGB three-color components, single-color image processing units 402 and 403 that generate an output image of the first frame rate from input images of each color, and 404 and an image integration unit 405 that generates a color image from the processing result image of each color. In the single color image processing unit, constraints on spatial smoothness of pixel values are set on the same horizontal line or two adjacent horizontal lines. This is applied to pixels of the same color on the line.
[Selection] Figure 4
Description
本願は、動画像を生成する撮像処理装置、撮像処理方法および画像処理プログラムに関する。 The present application relates to an imaging processing apparatus that generates a moving image, an imaging processing method, and an image processing program.
従来の撮像処理装置においては、高解像度化を図る目的で撮像素子の画素数が増加する傾向にあった。しかし、撮像素子全体のサイズを大きくするには限界があるため、各画素を小型化せざるを得ない。その一方、画素寸法が小型化されるほど、撮像素子の1画素に入射する光量が減少していた。その結果、各画素の信号対雑音比(S/N)の低下につながり、画質を維持することが困難であった。 In the conventional imaging processing apparatus, the number of pixels of the imaging element tends to increase for the purpose of achieving high resolution. However, since there is a limit to increasing the size of the entire image sensor, each pixel must be downsized. On the other hand, as the pixel size is reduced, the amount of light incident on one pixel of the image sensor decreases. As a result, the signal-to-noise ratio (S / N) of each pixel is reduced, and it is difficult to maintain the image quality.
特許文献1は、赤、緑、青のそれぞれ光を検出する3枚の撮像素子を利用し、露出時間を制御して得られる信号を処理することによって、高解像度で高フレームレートかつ高感度の画像の復元を実現することを開示している。この技術では、2種類の解像度の撮像素子が用いられている。一方の高解像度な撮像素子は長時間露出で画素信号を読み出し、他方の低解像度な撮像素子は短時間露出で画素信号を読み出す。これにより、光量を確保していた。
さらに、特許文献2は、特許文献1の手法を単板カメラに拡張し、単板カメラであっても各画素の信号対雑音比(S/N)の低下を抑えながら、画質の維持を実現することを開示している。
Furthermore,
しかしながら、前記高解像度かつ低フレームレートで撮像した色成分画像は、被写体が動いている場合には動きぶれが含まれる画像となってしまう。 本発明の実施形態は、動きぶれに起因する画質の低下を低減することができる撮像処理の技術を提供する。 However, the color component image captured at the high resolution and the low frame rate is an image including motion blur when the subject is moving. Embodiments of the present invention provide an imaging processing technique that can reduce deterioration in image quality caused by motion blur.
ある実施形態において、撮像処理装置は、2個の第1色画素、1個の第2色画素、および1個の第3色画素がベイヤ配列を形成するように配列された第1画素ユニットと、2個の第1色画素、1個の第2色画素、および1個の第3色画素がベイヤ配列を形成するように配列された第2画素ユニットとが行および列状に交互に配列された単板カラー撮像素子であって、前記第1画素ユニットにおける前記2個の第1色画素の一方、前記第2色画素および前記第3色画素、ならびに前記第2画素ユニットにおける前記2個の第1色画素の一方であって前記第1画素ユニットにおける前記第1色画素の前記一方と同じ行に位置する第1色画素からは画素値を第1のフレームレートで読み出し、前記第1画素ユニットにおける前記2個の第1色画素の他方、ならびに前記第2画素ユニットにおける前記2個の第1色画素の他方、前記第2色画素および前記第3色画素からは画素値を、前記第1のフレームレートよりも低い第2のフレームレートで読み出することができる、単板カラー撮像素子と、前記第1のフレームレートで読み出された画素値と、前記第2のフレームレートで読み出された画素値とに基づいて、前記第1のフレームレートの新たな動画像を生成する画像処理部とを備える。 In one embodiment, the imaging processing apparatus includes: a first pixel unit in which two first color pixels, one second color pixel, and one third color pixel are arranged to form a Bayer array; Two first color pixels, one second color pixel, and a second pixel unit in which one third color pixel is arranged so as to form a Bayer array are alternately arranged in rows and columns. A single-plate color imaging device, wherein one of the two first color pixels in the first pixel unit, the second color pixel and the third color pixel, and the two in the second pixel unit. A pixel value is read at a first frame rate from a first color pixel located in the same row as the one of the first color pixels in the first pixel unit. Of the two first color pixels in the pixel unit. And the second frame having a pixel value lower than the first frame rate from the other of the two first color pixels, the second color pixel, and the third color pixel in the second pixel unit. Based on a single-plate color imaging device that can be read at a rate, a pixel value read at the first frame rate, and a pixel value read at the second frame rate, the first And an image processing unit that generates a new moving image having a frame rate of 1.
ある実施形態において、前記画像処理部は、前記第1色画素から前記第1のフレームレートで読み出された画素値と、前記第1色画素から前記第2のフレームレートで読み出された画素値とに基づいて、第1のフレームレートの第1色動画像を生成する第1の単色画像処理部と、前記第2色画素から前記第1のフレームレートで読み出された画素値と、前記第2色画素から前記第2のフレームレートで読み出された画素値とに基づいて、前記第1のフレームレートの第2色動画像を生成する第2の単色画像処理部と、前記第3色画素から前記第1のフレームレートで読み出された画素値と、前記第3色画素から前記第2のフレームレートで読み出された画素値とに基づいて、前記第1のフレームレートの第3色動画像を生成する第3の単色画像処理部とを備え、前記第1、第2および第3動画像から前記カラー動画像を生成する。 In one embodiment, the image processing unit includes a pixel value read from the first color pixel at the first frame rate, and a pixel read from the first color pixel at the second frame rate. A first monochrome image processing unit that generates a first color moving image having a first frame rate based on the value, a pixel value read from the second color pixel at the first frame rate, and A second single-color image processing unit that generates a second color moving image of the first frame rate based on a pixel value read from the second color pixel at the second frame rate; Based on the pixel value read from the three-color pixel at the first frame rate and the pixel value read from the third-color pixel at the second frame rate, the first frame rate Third monochrome image for generating the third color moving image And a processing unit, to generate the color moving image from the first, second and third moving image.
ある実施形態において、前記画像処理部は、前記第1の単色画像処理部から出力された前記第1色動画像と、前記第2の単色画像処理部から出力された前記第2色動画像と、前記第3の単色画像処理部から出力された前記第3色動画像とを格納するメモリを備える。 In one embodiment, the image processing unit includes the first color moving image output from the first single color image processing unit and the second color moving image output from the second single color image processing unit. And a memory for storing the third color moving image output from the third single-color image processing unit.
ある実施形態において、前記画像処理部は、前記第1のフレームレートで読み出された画素値に基づいて得られた前記第1の色成分の動画像、前記第2の色成分の動画像または前記第3の色成分の動画像と、前記新たな動画像を前記第1のフレームレートでサンプリングして得られた動画像との第1の差と、前記第2のフレームレートで読み出された画素値に基づいて得られた前記第1の色成分の動画像、前記第2の色成分の動画像または前記第3の色成分の動画像と、前記新たな動画像を前記第2のフレームレートでサンプリングして得られた動画像との第2の差と、前記新たな動画像における画素値の分布の変化が少なくなるほど、または前記新たな動画像における前記画素値の変化が一定になるほど、小さくなる拘束条件項とを含む評価式を設定し、前記評価式を最小化する動画像を、前記新たな動画像として求める。 In one embodiment, the image processing unit includes the moving image of the first color component, the moving image of the second color component, or the moving image of the second color component obtained based on the pixel value read at the first frame rate. A first difference between the moving image of the third color component and the moving image obtained by sampling the new moving image at the first frame rate and the second moving image are read at the second frame rate. The moving image of the first color component, the moving image of the second color component or the moving image of the third color component obtained based on the obtained pixel value, and the new moving image are converted into the second moving image. The second difference from the moving image obtained by sampling at the frame rate and the change in the distribution of pixel values in the new moving image become smaller, or the change in the pixel value in the new moving image becomes constant. The smaller the constraint condition terms Set the expression, a moving image that minimizes the evaluation formula is determined as the new moving image.
ある実施形態において、前記画像処理部は、前記拘束条件項を、前記第1色画素、第2色画素および第3色画素の各々について設定する。 In one embodiment, the image processing unit sets the constraint condition term for each of the first color pixel, the second color pixel, and the third color pixel.
ある実施形態において、前記画像処理部は、前記第1色画素についての前記拘束条件項を、前記単板カラー固体撮像素子の2行における画素値を用いて算出する。 In one embodiment, the image processing unit calculates the constraint condition term for the first color pixel using pixel values in two rows of the single-plate color solid-state imaging device.
ある実施形態において、前記画像処理部は、前記第2色画素および前記第3色画素についての前記拘束条件項を、前記単板カラー固体撮像素子の1行および/または1列における画素値を用いて算出する。 In one embodiment, the image processing unit uses the pixel value in one row and / or one column of the single-plate color solid-state imaging device as the constraint condition term for the second color pixel and the third color pixel. To calculate.
ある実施形態において、前記画像処理部は、前記評価式は、前記第1の差、第2の差、および拘束条件項の各々に乗算された重み係数を含む。 In one embodiment, the image processing unit includes a weighting factor multiplied by each of the first difference, the second difference, and the constraint condition term.
ある実施形態において、前記第1色画素、第2色画素および第3色画素は、それぞれ、緑色画素、赤色画素および青色画素である。 In one embodiment, the first color pixel, the second color pixel, and the third color pixel are a green pixel, a red pixel, and a blue pixel, respectively.
ある実施形態において、前記画像処理部は、前記第1のフレームレートで読み出された画素値に基づいて得られた前記第1色成分の動画像、前記第2色成分の動画像または前記第3色成分の動画像を利用して、前記被写体の動きを検出する動き検出部と、前記動きの検出結果を利用して前記新たな動画像の動きの分布に関する拘束条件項を設定し、前記動きの分布に関する拘束条件項を前記評価式に含める。 In one embodiment, the image processing unit includes the moving image of the first color component, the moving image of the second color component, or the first moving image obtained based on the pixel value read at the first frame rate. A motion detection unit that detects a motion of the subject using a moving image of three color components; and a constraint condition term relating to the motion distribution of the new moving image is set using the detection result of the motion, A constraint condition term relating to the motion distribution is included in the evaluation formula.
ある実施形態において、画像処理方法は、単板カラー撮像素子から得られる画素値に基づいて画像処理を行うであって、前記単板カラー撮像素子は、2個の第1色画素、1個の第2色画素、および1個の第3色画素がベイヤ配列を形成するように配列された第1画素ユニットと、2個の第1色画素、1個の第2色画素、および1個の第3色画素がベイヤ配列を形成するように配列された第2画素ユニットとが行および列状に交互に配列された単板カラー撮像素子であって、前記第1画素ユニットにおける前記2個の第1色画素の一方、前記第2色画素および前記第3色画素、ならびに前記第2画素ユニットにおける前記2個の第1色画素の一方であって前記第1画素ユニットにおける前記第1色画素の前記一方と同じ行に位置する第1色画素からは画素値を第1のフレームレートで読み出し、前記第1画素ユニットにおける前記2個の第1色画素の他方、ならびに前記第2画素ユニットにおける前記2個の第1色画素の他方、前記第2色画素および前記第3色画素からは画素値を、前記第1のフレームレートよりも低い第2のフレームレートで読み出することができ、前記単板カラー撮像素子によって前記第1のフレームレートで読み出された画素値と、前記第2のフレームレートで読み出された画素値とを取得するステップと、前記第1のフレームレートで読み出された前記画素値と、前記第2のフレームレートで読み出された画素値とに基づいて、前記第1のフレームレートの新たな動画像を生成するステップとを含む。 In one embodiment, the image processing method performs image processing based on a pixel value obtained from a single-plate color imaging device, and the single-plate color imaging device includes two first color pixels, one pixel A first pixel unit in which a second color pixel and one third color pixel are arranged to form a Bayer array, two first color pixels, one second color pixel, and one A single-plate color image sensor in which second pixel units arranged so that third color pixels form a Bayer array are alternately arranged in rows and columns, and the two pixel units in the first pixel unit One of the first color pixels, the second color pixel and the third color pixel, and one of the two first color pixels in the second pixel unit, the first color pixel in the first pixel unit A first color pixel located in the same row as said one of Read pixel values at a first frame rate, the other of the two first color pixels in the first pixel unit, the other of the two first color pixels in the second pixel unit, the second Pixel values can be read out from the two-color pixel and the third color pixel at a second frame rate lower than the first frame rate, and the single-plate color image pickup device at the first frame rate. Obtaining a read pixel value and a pixel value read at the second frame rate; the pixel value read at the first frame rate; and the second frame rate. And generating a new moving image having the first frame rate based on the pixel value read in step (b).
ある実施形態において、前記第1のフレームレートの新たな動画像を生成するステップは色ごとに実行し、その後、前記第1のフレームレートのカラー画像を生成するステップを含む。 In one embodiment, the step of generating a new moving image of the first frame rate is performed for each color, and then includes the step of generating a color image of the first frame rate.
ある実施形態において、画像処理プログラムは、単板カラー撮像素子から得られる画素値に基づいて画像処理を行うための画像処理プログラムであって、前記単板カラー撮像素子は、2個の第1色画素、1個の第2色画素、および1個の第3色画素がベイヤ配列を形成するように配列された第1画素ユニットと、2個の第1色画素、1個の第2色画素、および1個の第3色画素がベイヤ配列を形成するように配列された第2画素ユニットとが行および列状に交互に配列された単板カラー撮像素子であって、前記第1画素ユニットにおける前記2個の第1色画素の一方、前記第2色画素および前記第3色画素、ならびに前記第2画素ユニットにおける前記2個の第1色画素の一方であって前記第1画素ユニットにおける前記第1色画素の前記一方と同じ行に位置する第1色画素からは画素値を第1のフレームレートで読み出し、前記第1画素ユニットにおける前記2個の第1色画素の他方、ならびに前記第2画素ユニットにおける前記2個の第1色画素の他方、前記第2色画素および前記第3色画素からは画素値を、前記第1のフレームレートよりも低い第2のフレームレートで読み出することができ、前記第1のフレームレートで読み出された前記画素値と、前記第2のフレームレートで読み出された画素値とに基づいて、コンピュータに、前記第1のフレームレートの新たな動画像を生成させる。 In one embodiment, the image processing program is an image processing program for performing image processing based on pixel values obtained from a single-plate color image sensor, and the single-plate color image sensor includes two first colors. A first pixel unit in which pixels, one second color pixel, and one third color pixel are arranged so as to form a Bayer array, two first color pixels, and one second color pixel , And a second pixel unit in which one third color pixel is arranged so as to form a Bayer array, and is a single-plate color imaging device in which the first pixel unit is alternately arranged in rows and columns. One of the two first color pixels, one of the second color pixel and the third color pixel, and one of the two first color pixels in the second pixel unit. The one of the first color pixels; The pixel values are read out from the first color pixels located in the same row as the first frame rate, the other of the two first color pixels in the first pixel unit, and the two in the second pixel unit. The pixel value can be read out from the second color pixel and the third color pixel at a second frame rate lower than the first frame rate. Based on the pixel value read at the frame rate and the pixel value read at the second frame rate, a computer generates a new moving image at the first frame rate.
ある実施形態において、前記第1のフレームレートの新たな動画像を生成するステップは色ごとに実行し、その後、前記第1のフレームレートのカラー画像を生成するステップを含む。 In one embodiment, the step of generating a new moving image of the first frame rate is performed for each color, and then includes the step of generating a color image of the first frame rate.
本発明によれば、複数の色の各々について、フレームレートが異なる画像を得て画像処理を行うため、動きぶれに起因する画質の低下を低減することができる。 According to the present invention, for each of a plurality of colors, images having different frame rates are obtained and image processing is performed, so that it is possible to reduce deterioration in image quality due to motion blur.
前述の従来技術では、G成分画像を長時間露出で撮像する。このため、例えば被写体がシステム規定の検出範囲よりも大きく動く場合や、被写体の変形を伴うような複雑な動きをする場合などRB成分画像で動きの検出がうまく動作しなかった場合に、G成分の動きぶれが除去しきれずに復元画像に残る。また、被写体の変形を伴うような複雑な動きをする場合などRB成分画像で動きの検出がうまく動作しなかった場合も同様である。G成分の動きぶれが除去しきれずに復元画像に残ると、緑色またはその補色であるマゼンタの色にじみが発生する。そのため、多くの場合得られた動画像の画質は高かったものの、動きの検出が困難な一部の範囲においては、復元した画像上に前記色にじみが見られることがあり、画質改善の余地があった。また、特許文献2においても、さらなるS/Nの改善が望まれている。
In the above-described prior art, a G component image is captured with long exposure. For this reason, for example, when the movement of the subject does not work well in the RB component image, such as when the subject moves larger than the detection range defined by the system or when the subject moves complicatedly with deformation of the subject, the G component The motion blur is not completely removed and remains in the restored image. The same applies to the case where the motion detection does not work well in the RB component image, such as when the subject moves complicatedly with deformation of the subject. If the motion blur of the G component is not completely removed and remains in the restored image, green or magenta color blur, which is a complementary color thereof, occurs. For this reason, although the image quality of the obtained moving image is high in many cases, in some areas where it is difficult to detect motion, the color blur may be seen on the restored image, and there is room for improvement in image quality. there were. Also in
本発明の一態様における撮像処理装置は、単板カラー撮像素子と画像処理部とを備える。この単板カラー撮像素子では、図20に例示されるように、第1画素ユニットと第2画素ユニットとが行および列状に交互に配列されている。第1画素ユニットでは、2個の第1色画素(1S,1L)、1個の第2色画素(2S)、および1個の第3色画素(3S)がベイヤ配列を形成するように配列されている。第2画素ユニットでは、2個の第1色画素(1S,1L)、1個の第2色画素(2L)、および1個の第3色画素(3L)がベイヤ配列を形成するように配列されている。ある実施形態において、第1色画素、第2色画素および第3色画素が、それぞれ、緑の画素、赤の画素および青の画素に対応される。3つの色は、緑、赤および青に限定されず、これらの補色であってもよい。第1画素ユニットおよび第2画素ユニットは、画素の周期的な二次元配列を構成する要素にすぎず、各々の画素ユニットの間に特別な境界が設けられているわけではない。また、現実の画素の配列を固定したまま、各画素ユニットを例えば1画素分だけ相対的に移動させてもよい。 An imaging processing apparatus according to an aspect of the present invention includes a single-plate color imaging element and an image processing unit. In this single-plate color imaging device, as illustrated in FIG. 20, the first pixel units and the second pixel units are alternately arranged in rows and columns. In the first pixel unit, two first color pixels (1S, 1L), one second color pixel (2S), and one third color pixel (3S) are arranged so as to form a Bayer array. Has been. In the second pixel unit, two first color pixels (1S, 1L), one second color pixel (2L), and one third color pixel (3L) are arranged so as to form a Bayer array. Has been. In some embodiments, the first color pixel, the second color pixel, and the third color pixel correspond to a green pixel, a red pixel, and a blue pixel, respectively. The three colors are not limited to green, red, and blue, and may be complementary colors thereof. The first pixel unit and the second pixel unit are merely elements constituting a periodic two-dimensional array of pixels, and no special boundary is provided between the pixel units. Alternatively, each pixel unit may be relatively moved by, for example, one pixel while the actual pixel arrangement is fixed.
第1画素ユニットにおける2個の第1色画素(1S,1L)の一方(1S)、第2色画素(2S)および第3色画素(3S)、ならびに第2画素ユニットにおける2個の第1色画素(1S,1L)の一方あって第1画素ユニットにおける第1色画素の前記一方(1S)と同じ行に位置する第1色画素(1S)からは画素値が第1のフレームレート(S: Short)で読み出される。 One of the two first color pixels (1S, 1L) in the first pixel unit (1S), the second color pixel (2S) and the third color pixel (3S), and the two first colors in the second pixel unit From the first color pixel (1S) located in the same row as the one (1S) of the first color pixels in the first pixel unit, which is one of the color pixels (1S, 1L), the pixel value is the first frame rate ( S: Short).
また、第1画素ユニットにおける2個の第1色画素(1S,1L)の他方(1L)、ならびに第2画素ユニットにおける2個の第1色画素の他方(1L)、第2色画素(2L)および第3色画素(3L)からは画素値が、第1のフレームレートよりも低い第2のフレームレート(L: Long)で読み出される。 Also, the other of the two first color pixels (1S, 1L) in the first pixel unit (1L), the other of the two first color pixels in the second pixel unit (1L), and the second color pixel (2L). ) And the third color pixel (3L), pixel values are read out at a second frame rate (L: Long) lower than the first frame rate.
画像処理部は、第1のフレームレートで読み出された画素値と、第2のフレームレートで読み出された画素値とに基づいて、第1のフレームレートの新たな動画像を生成する。実施形態における画像処理部は、第1のフレームレートで読み出された画素値と、第2のフレームレートで読み出された画素値とに基づいて、第1のフレームレートの新たな動画像を生成する処理を、色毎に実行する。そして、色ごとに得られた第1のフレームレートの動画像から第1のフレームレートのカラー画像を得ることが可能になる。 The image processing unit generates a new moving image having the first frame rate based on the pixel value read at the first frame rate and the pixel value read at the second frame rate. The image processing unit according to the embodiment generates a new moving image having the first frame rate based on the pixel value read at the first frame rate and the pixel value read at the second frame rate. The process to generate is executed for each color. A color image having the first frame rate can be obtained from the moving image having the first frame rate obtained for each color.
以下、添付の図面を参照しながら、本発明による撮像処理装置の実施形態を詳細に説明する。 Hereinafter, embodiments of an imaging processing apparatus according to the present invention will be described in detail with reference to the accompanying drawings.
(実施形態1)
図1は、本実施形態における撮像処理装置100の構成を示すブロック図である。撮像処理装置100は、光学系101と、単板カラー撮像素子102と、読み出し制御部103と、制御部104と、カラー画像処理部105とを備えている。以下、撮像処理装置100の各構成要素を詳細に説明する。
(Embodiment 1)
FIG. 1 is a block diagram illustrating a configuration of an
光学系101は、例えば、カメラレンズであり、被写体の像を撮像素子の像面に結像する。
The
単板カラー固体撮像素子102は、赤(R),緑(G),青(B)のカラーフィルタアレイが各画素に装着された撮像素子である。図2は、単板カラー撮像素子102の一例を示す。単板撮像素子の各画素(フォトダイオード)に対応して、ベイヤ配列と呼ばれる配列のカラーフィルタアレイが装着されている。図中の"R"、"Gr"および"Gb"、"B"はそれぞれ「赤」、「緑」、「青」のフィルタを示している。ここで、"Gr"とはR成分のカラーフィルタと同一の行に配置されるG成分のカラーフィルタを示し、"Gb"とはB成分のカラーフィルタと同一の行に配置されるG成分のカラーフィルタを示す。
The single-plate color solid-
単板カラー固体撮像素子102の各画素は、光学系101によって結ばれた光(光学像)を、それぞれに対応して設けられた赤、緑または青のフィルタを通して受け取る。各画素は、画素単位で光電変換を行い、各画素に入射した光の量に応じた画素値(画素信号)を出力する。同じフレーム時刻に撮影された、同じ色成分の画素信号により、その色成分ごとの画像が得られる。全ての色成分の画像により、カラー画像が得られる。
Each pixel of the single-plate color solid-
以下、本明細書および図面において、赤、緑、青の光を検出する画素を、それぞれ"R"、"G"、"B"によって表すとする。撮像素子の各画素から出力される画素信号は、R,G,Bいずれかの色に関する画素値を持つ。以下、赤、緑、青の色成分の光を検出する画素を、それぞれR画素、G画素ならびにB画素と呼ぶ。また、図3において"Gr"、"Gb"と記載のある位置の画素については、それぞれGr画素、Gb画素と呼ぶ。すなわち、ここでいう"G画素"とは、Gr画素とGb画素を総称したものである。 In the following description and drawings, pixels that detect red, green, and blue light are represented by “R”, “G”, and “B”, respectively. A pixel signal output from each pixel of the image sensor has a pixel value related to any of R, G, and B colors. Hereinafter, pixels that detect light of red, green, and blue color components are referred to as R pixel, G pixel, and B pixel, respectively. In addition, pixels at positions where “Gr” and “Gb” in FIG. 3 are referred to as Gr pixels and Gb pixels, respectively. That is, the “G pixel” here is a generic term for Gr pixel and Gb pixel.
この説明から明らかな通り、撮像素子の各画素は、各色のカラーフィルタを透過した光を受け、受けた光の強さに応じた信号を出力する撮像素子の1単位である。 As is apparent from this description, each pixel of the image sensor is a unit of the image sensor that receives light transmitted through the color filters of each color and outputs a signal corresponding to the intensity of the received light.
読み出し制御部103は、図2に示す配列の単板カラー撮像素子102の各画素の電荷(画素値)の露出時間(または読み出しタイミング)を独立に設定する。読み出し方法は以下に詳細に説明するとおりである。読み出し制御部103の読み出し動作は、制御部104による制御に基づいて実行される。
The
図3に、本実施形態における短時間露出画像と長時間露出画像の配置の例を示している。画素信号の読み出しは、ライン単位で行われる。図3において、R、Gr、Gb、Bの添え字Sは短時間露出を示し、添え字Lは長時間露出を示す。 FIG. 3 shows an example of the arrangement of short-time exposure images and long-time exposure images in the present embodiment. The pixel signal is read out in units of lines. In FIG. 3, the subscript S for R, Gr, Gb, and B indicates short-time exposure, and the subscript L indicates long-time exposure.
本願明細書では、「短時間露出」とは、一般的な動画撮影時の1フレームの時間だけ露光することを意味する。例えば「短時間露出」とは、フレームレートが30フレーム/秒(30fps)の場合には1/30秒の露出時間で露光することに相当する。フレームレートが60フレーム/秒(60fps)の場合には1/60秒である。一方、長時間露出とは、1フレームの露光に要する時間よりも長い時間、例えば2フレームから10フレーム程度の時間露光することを意味する。 In this specification, “short-time exposure” means exposure for one frame time during general moving image shooting. For example, “short-time exposure” corresponds to exposure with an exposure time of 1/30 seconds when the frame rate is 30 frames / second (30 fps). When the frame rate is 60 frames / second (60 fps), it is 1/60 seconds. On the other hand, long exposure means exposure for a time longer than the time required for exposure of one frame, for example, about 2 to 10 frames.
図17に、本実施形態にかかる単板カラー固体撮像素子102の構成の一例を示す。単板カラー固体撮像素子102は、画素アレイ1701、G成分AD変換部1702、G成分HSR1703、RB成分AD変換部1704、RB成分HSR1705ならびに撮像制御部1706を備える。画素アレイ1701は、図3に示すカラーフィルタ配置および長時間露光の画素・短時間露光の画素の配置が実装され、各色成分の入射光を光電変換する。G成分AD変換部1702は、画素アレイ1701から得られたG画素の出力信号を、アナログ‐デジタル変換する。G成分HSR1703は、G成分AD変換部1702の出力を、単板カラー固体撮像素子102の外部に出力する。RB成分AD変換部1704は、画素アレイ1701から得られたRおよびB画素の出力信号をアナログ‐デジタル変換する、RB成分HSR1705は、RB成分AD変換部1704の出力を、単板カラー固体撮像素子102の外部に出力する。撮像制御部1706は、長時間および短時間のそれぞれの露出時間に対応する読み出し信号を、画素アレイ1701に供給する。
FIG. 17 shows an example of the configuration of the single-plate color solid-
また、図18に、画素アレイ1701の詳細な構成の一例を示す。図18において、長時間露出で撮像する画素(添え字L)については、長時間読み出し信号線1801が接続され、長時間露出・低フレームレートで読み出される。短時間露出(添え字S)の画素については、短時間読み出し信号線1802が接続され、短時間露出・高フレームレートで読み出される。前記長時間読み出し信号線1801および短時間読み出し信号線1802は、図17における撮像制御部1706に接続されており、撮像制御部1706からそれぞれの露出時間に対応する読み出し信号を受け取る。この構成は、上下に隣接する2つの画素で長時間読み出し信号線1801あるいは短時間読み出し信号線1802を共有するため、2つの水平画素列を同時に読み出すことができ、読み出しの高速化を図ることができる。また、図18の構成において、同時に読み出された画素の出力信号が互いに混合することを避けるために、G信号出力線1803とRB信号出力線1804がそれぞれ別個に設けられている。
FIG. 18 shows an example of a detailed configuration of the
再び図1を参照する。 Refer to FIG. 1 again.
カラー画像処理部105は、短時間露出画像データと長時間露出画像データを受け取り、これらに画像処理を行うことによって、各画素における画素値(例えば、R,G,Bの画素値)を推定し、高解像度カラー動画像を生成する。
The color
図4に、カラー画像処理部105の詳細な構成の一例を示す。カラー画像処理部105は、画像分離部401、R画像処理部402、G画像処理部403、B画像処理部404および画像統合部405を備える。画像分離部401は、図4に示すように、R、Gr、Gb、Bのすべての色成分を含む入力画像を、R成分の画素のみを含む画像(以下R成分画像)、G成分のみの画素を含む画像(G成分画像)ならびにB成分の画素のみを含む画像(B成分画像)の3つに分解する。なお図4においては、図3におけるGrL画素とGbL画素を併せてGLと表記し、また同図におけるGrS画素とGbS画素を併せてGSと表記している。R画像処理部402は、RL画素およびRS画素の画素値から、画像処理を行うことによって各R画素位置における出力画像の画素値を生成する。G画像処理部403は、GL画素およびGS画素の画素値から、画像処理を行うことによって各G画素位置における出力画像の画素値を生成する。B画像処理部404は、BL画素およびBS画素の画素値から、画像処理を行うことによって各B画素位置における出力画像の画素値を生成する。
FIG. 4 shows an example of a detailed configuration of the color
画像統合部405は、R画像処理部402、G画像処理部403およびB画像処理部404から出力された各色成分画像を統合し、最終的なカラー画像を生成する。画像統合部405の具体的例は、メモリである。R画像処理部402、G画像処理部403およびB画像処理部404から出力された各データがメモリ内に記録される得る。このメモリから各色のデータを読み出せば、カラー画像を得ることができる。従って、最終的なカラー画像の生成とは、カラー画像を表示することではなく、カラー画像を構成する各色のデータを揃えることを意味する。各色のデータは、同一メモリ内の異なる領域に分けて格納されてもよいし、異なるメモリに分けて格納されてもよい。また、各色のデータが混在した形でメモリ内に格納されてもよい。
The
次に、図4におけるR画像処理部402、G画像処理部403およびB画像処理部404の詳細な動作について説明する。これらのそれぞれの処理内容は一部を除いて同一であり、これ以降R画像処理部402を例にとって説明する。R画像処理部402における処理内容の説明の後、G画像処理部403、B画像処理部404における処理の、R画像処理部402との差分点について述べる。
Next, detailed operations of the R
<各画素におけるR画素値の生成処理>
R画像処理部402は、次式で表される評価関数(評価式)JRを最小化して、各々のRの画素値を計算する。
The R
(数1)のべき指数Mの値は、特に限定するものではないが、演算量の観点から、1または2が好ましい。 The value of the exponent M in (Expression 1) is not particularly limited, but 1 or 2 is preferable from the viewpoint of the amount of calculation.
(数1)の第1項は、生成すべきR画像fRを、長時間露出のサンプリング過程H1Rによってサンプリングして得られた画像と、実際に長時間露出画像として得られた、gLRとの差の演算を意味する。長時間露出のサンプリング過程H1Rを予め定めておき、この差分を最小化するfRを求めると、そのfRは、長時間露出によって得られたgLRと最もよく整合するといえる。第2項についても同様に、差分を最小化するfRは、短時間露出によって得られたgSRと最もよく整合するといえる。また、第3項は、解fRを一意に決定するための拘束条件(拘束条件項)である。 The first term of (Equation 1) is the g LR obtained by sampling the R image f R to be generated by the long exposure sampling process H 1R and the actual long exposure image. Means the calculation of the difference between If the long exposure sampling process H 1R is determined in advance and f R that minimizes this difference is obtained, it can be said that f R is the best match with g LR obtained by the long exposure. Similarly, for the second term, f R that minimizes the difference can be said to be the best match with g SR obtained by short-time exposure. The third term is a constraint condition (constraint condition term) for uniquely determining the solution f R.
そして、(数1)の評価関数JRを最小化するR画像fRは、長時間露出および短時間露出によって得られたgLRおよびgsRの両方を総合的によく満足するといえる。画像生成部202は、数1を最小化するR画像fRを計算することで、S/Nが改善されたR画像の画素値を生成する。
Then, R image f R that minimizes the evaluation function J R (Equation 1), both g LR and g sR obtained by exposure and short exposure prolonged said to comprehensively well satisfactory. The image generation unit 202 calculates the R image f R that minimizes
(数1)のJRの最小化は、∂JR/∂fR=0となるR画像fRを求めることによって行う。この計算は、(数1)においてM=2でかつ、QがfRの2次形式の場合には、上述のJRのfRによる偏微分∂JR/∂fRがfRの1次式になるため、線形最適化問題となり連立方程式ARfR=bRの計算に帰着する。すなわち、(数1)をfRで偏微分すると、以下のようになる。
(数2)において、QがfRの2次形式であることを仮定し、次のように書き直す。
一方、M=1の場合や、M=3以上の整数の場合、また、Mが整数でない場合には、非線形最適化問題となる。 On the other hand, when M = 1, when M = an integer of 3 or more, and when M is not an integer, a nonlinear optimization problem occurs.
図5は、共役勾配法の処理手順を示す。計算が線形最適化問題になる場合、図5に示す共役勾配法の手順により評価関数JRを最小にするR画像fRを計算することができる。図6は、図5に示す処理を行うためのR画像処理部402の構成例を示す。R画像処理部402は、係数演算部501と、ベクトル演算部502と、演算部503とを有している。なお、図4のG画像処理部403、B画像処理部402についても、図6のR画像処理部402の構成と同様に実現できる。
FIG. 5 shows a processing procedure of the conjugate gradient method. When the calculation becomes a linear optimization problem, the R image f R that minimizes the evaluation function JR can be calculated by the procedure of the conjugate gradient method shown in FIG. FIG. 6 shows a configuration example of the R
係数演算部501は、係数行列ARを計算する。ベクトル演算部502は、定数ベクトルbRを計算する。演算部503は、演算によって得られた行列ARおよびベクトルbRを用いて、ARfR=bRの連立方程式を解く。図5に示す処理は、主として演算部503の処理である。行列ARおよびベクトルbRが求まり、制御部104から初期値および終了条件が与えられると図5の処理が開始される。図5の終了条件は、図5に示すk+1ステップ目での残差rk+1が十分小さくなったときである。
The
これにより、評価関数JRを最小化するR画像fRを求める。なお、図5に示すアルゴリズムは公知であるため、詳細な説明は省略する。 Thus, an R image f R that minimizes the evaluation function J R is obtained. Since the algorithm shown in FIG. 5 is known, detailed description thereof is omitted.
以下、(数1)に関してより詳しく説明する。 Hereinafter, (Equation 1) will be described in more detail.
画像fR、gLRおよびgSRは、動画像の各画素値を要素とする縦ベクトルである。以下では、画像についてベクトル表記は、画素値をラスタースキャン順に並べた縦ベクトルを意味し、関数表記は、画素値の時空間的分布を意味する。画素値としては、輝度値の場合は、1画素につき1個の値を考えればよい。fRの要素数は、例えば、生成すべき動画像を横2000画素、縦1000画素、30フレームとすると、2000×1000×30=60000000となる。 The images f R , g LR and g SR are vertical vectors whose elements are the pixel values of the moving image. Hereinafter, the vector notation for an image means a vertical vector in which pixel values are arranged in the raster scan order, and the function notation means a spatio-temporal distribution of pixel values. As a pixel value, in the case of a luminance value, one value may be considered per pixel. The number of elements of f R is, for example, 2000 × 1000 × 30 = 60000000 if the moving image to be generated is 2000 pixels wide, 1000 pixels long, and 30 frames.
R画像fRの縦横の画素数および信号処理に用いるフレーム数は、カラー画像処理部105あるいはR画像処理部402によって設定される。
The number of vertical and horizontal pixels of the R image f R and the number of frames used for signal processing are set by the color
長時間露出のサンプリング過程H1Rは、行数がgLRの要素数と等しく、列数がfRの要素数と等しい行列である。また、短時間露出サンプリング過程H2Rは、行数がgSRの要素数と等しく、列数がfRの要素数と等しい行列である。 The long exposure sampling process H 1R is a matrix in which the number of rows is equal to the number of elements of g LR and the number of columns is equal to the number of elements of f R. The short-time exposure sampling process H 2R is a matrix whose number of rows is equal to the number of elements of g SR and whose number of columns is equal to the number of elements of f R.
現在一般に普及しているコンピュータでは、動画像の画素数(例えば幅2000画素×高さ1000画素)とフレーム数(例えば30フレーム)に関する情報量が多すぎるため、(数1)を最小化するfRを単一の処理で求めることはできない。この場合、時間的、空間的な部分領域についてfRの一部を求める処理を繰り返すことにより、生成すべき動画像fRを計算することができる。 Since the amount of information relating to the number of pixels of a moving image (for example, 2000 pixels wide × 1000 pixels in height) and the number of frames (for example, 30 frames) is too large in a computer that is currently in widespread use, f (1) is minimized. R cannot be determined in a single process. In this case, the moving image f R to be generated can be calculated by repeating the process of obtaining a part of f R for the temporal and spatial partial regions.
次に、長時間露出のサンプリング過程H1Rの定式化を簡単な例を用いて説明する。図7には、幅4画素(x=1〜4)、高さ4画素(y=1〜4)、2フレーム(t=1,2)の画像をベイヤ配列の単板カラー撮像素子102で撮像し、画像分離部401によってR成分画像のみが取り出された場合の画素配列を示す。これは、図3に示す画素配列において、左側半分の4×4画素の領域に対し、画像分離部401における処理を適用したものと同等である。以下、図7の画素配列で、長時間露出で撮像する画素(図3中で"RL"の記載がある画素)において2フレーム分時間蓄積する場合のgLRの撮像過程について考える。
Next, formulation of the long exposure sampling process H 1R will be described using a simple example. In FIG. 7, an image having a width of 4 pixels (x = 1 to 4), a height of 4 pixels (y = 1 to 4), and two frames (t = 1, 2) is displayed by a single-plate
得られるR画像fRの要素は、t=1、2を含めて以下の(数5)のように表される。
(数5)において、R111〜R332は各画素におけるRの画素値を示し、3個の添字は順にx、y、tの値を示す。 In (Expression 5), R 111 to R 332 indicate R pixel values in each pixel, and three subscripts indicate x, y, and t values in order.
上記(数5)のうち、長時間露出を求めるために必要なのは、位置(1,1)にあるR111およびR112、位置(3,3)にあるR331およびR332である。そこで、それらの画素値のみを抽出するための行列を以下のように定義することができる。
行列H1Rは、長時間露出のサンプリング過程であることを考慮して設定される。すなわち、位置(1,1)における長時間露出の画素を得るためには、(x,y)=(1,1)の位置におけるt=1、2の各画素値を加算する必要がある。また、位置(3,3)における長時間露出の画素を得るためには、(x,y)=(3,3)の位置におけるt=1、2の各画素値を加算する必要がある。これらによれば、長時間露出画像の撮像過程は以下のように定式化される。
次に、短時間露出のサンプリング過程H2Rの定式化を簡単な例を用いて説明する。先の例と同様に、図7に示すR画素の配列の場合について考える。 Next, the formulation of the sampling process H 2R for a short exposure will be described using a simple example. As in the previous example, consider the case of the arrangement of R pixels shown in FIG.
この場合は短時間露出であるため、図3の画素配列の左半分における短時間露出画素Rsの画素値が、t=1および2について必要となる。 In this case, since the exposure is performed for a short time, the pixel value of the short-time exposure pixel Rs in the left half of the pixel array in FIG. 3 is required for t = 1 and 2.
得られるR画像fRの要素は、(数5)の通りであるが、このうち短時間露出を求めるために必要なのは、位置(3,1)についてはR311およびR312、位置(1,3)についてはR131およびR132である。そこで、それらの画素値のみを抽出するための行列を以下のように定義することができる。
(数8)の第1〜4列が時刻t=1に関し、第5〜8列が時刻t=2に関している。これらによれば、短時間露出ラインの撮像過程は以下のように定式化される。
(数7)や(数9)は、R画像fRをベイヤ配列の単板撮像素子により露出時間を変えて撮像しgLR、gSRを得る過程を示す。逆に、gLR、gSRからfRを生成する問題は、一般に逆問題といわれる。拘束条件Qのない場合、下記(数10)を最小化するfRは無数に存在する。
このことは、サンプリングされない画素値に任意の値を入れても(数10)が成り立つことから、容易に説明できる。そのため、(数10)の最小化によってR画像fRを一意に解くことはできない。
そこで、R画像fRについての一意な解を得るために、拘束条件Qを導入する。Qとして、画素値fRの分布に関する滑らかさの拘束を与える。以下、この拘束の与え方を説明する。
This can be easily explained by the fact that (Equation 10) holds even if an arbitrary value is entered as the pixel value that is not sampled. Therefore, the R image f R cannot be uniquely solved by minimizing (Equation 10).
Therefore, in order to obtain a unique solution for the R image f R , a constraint condition Q is introduced. As Q, a smoothness constraint on the distribution of pixel values f R is given. Hereinafter, how to give this constraint will be described.
まず、R画像fRの画素値の分布に関する滑らかさの拘束としては、(数11)もしくは(数12)の拘束式を用いる。
(数1)に示す通り、拘束条件Qも評価関数JRの一部を構成する。したがって、評価関数JRの値をできるだけ小さくするためには、拘束条件Qも小さい方が好ましい。 As shown in (Equation 1), the constraint condition Q also constitutes a part of the evaluation function JR . Therefore, in order to make the value of the evaluation function JR as small as possible, it is preferable that the constraint condition Q is also small.
(数11)に関しては、画素値fRの分布の変化が少ないほど、Qの値は小さくなる。(数11)に関しては、画素値fRの分布の変化が一定であるほど、Qの値は小さくなる。これらが、画素値fRの分布に関する滑らかさの拘束条件となる。 Regarding (Equation 11), the smaller the change in the distribution of the pixel value f R , the smaller the Q value. Regarding (Equation 11), the value of Q decreases as the change in the distribution of the pixel value f R is constant. These are the constraints of smoothness on the distribution of pixel values f R.
また、(数10)で||はベクトルのノルムを表す。べき指数mの値は、(数1)、(数10)におけるべき指数Mと同様に、演算量の観点から1または2が望ましい。 In addition, || represents the norm of the vector in (Equation 10). The value of the power exponent m is preferably 1 or 2 from the viewpoint of the amount of computation, like the power exponent M in (Equation 1) and (Equation 10).
さらに、画像fの画素値の分布に関する滑らかさの拘束としては、下記(数13)あるいは(数14)のいずれかのQを用いて、fRの画素値のこう配に応じて拘束条件を適応的に変化させてもよい。なお、こう配とは、画像fRの画素値の分布関数fRを位置について1階微分することによって得られる。
(数13)および(数14)において、w(x,y)は画素値のこう配の関数であり、拘束条件に対する重み関数である。例えば、下記(数15)に示す画素値のこう配成分のべき乗和が、大きい場合にはw(x,y)の値が小さく、逆の場合にはw(x,y)の値が大きくなるようにすると、fRのこう配に応じて拘束条件を適応的に変化できる。
このような重み関数を導入することにより、新たに生成される画像fRが必要以上に平滑化されることを防ぐことができる。また、(数15)に示す輝度こう配の成分の2乗和の代わりに、(数16)に示す方向微分の、べき乗の大小によって、重み関数w(x,y)を定義してもよい。
(数11)、(数12)、(数13)〜(数17)に示したような、動画像fRの画素値の分布に関する滑らかさの拘束を導入して(数1)を解く問題に対しては、公知の解法、例えば有限要素法等の変分問題の解法を用いて計算することができる。 The problem of solving (Equation 1) by introducing smoothness constraints on the distribution of pixel values of the moving image f R as shown in (Equation 11), (Equation 12), and (Equation 13) to (Equation 17). Can be calculated using a known solution, for example, a solution to a variational problem such as a finite element method.
なお、ここでは複数の拘束条件の式について説明したが、これらの最適な組み合わせは、コスト、演算規模、回路規模等の装置の状況に応じて決定すればよい。例えば、画質が最もよくなるものを選択するようにすればよい。「画質が最もよくなる」とは、例えばその映像を確認する者の主観に基づいて決定することができる。 Although a plurality of constraint condition expressions have been described here, the optimal combination of these may be determined according to the status of the apparatus such as cost, operation scale, circuit scale, and the like. For example, what has the best image quality may be selected. “The image quality is the best” can be determined based on the subjectivity of the person who confirms the video, for example.
評価関数JRの一例を(数18)に示す。
評価関数JRは、生成したい高解像度カラー画像(目的画像)fRを構成する赤色の画像の関数として定義される。ここで、(数18)右辺の第1項、第2項は、(数1)におけるべき指数Mを2としたものと同一である。 The evaluation function J R is defined as a function of the red image constituting the high resolution color image (target image) f R to be generated. Here, the first term and the second term on the right side of (Equation 18) are the same as those when the exponent M in (Equation 1) is 2.
低解像度化画像および入力画像の対応画素位置における画素値の差の2乗和を、評価関数の評価条件として設定する((数18)の右辺第1項および第2項)。つまり、これらの評価条件は、低解像度化画像に含まれる各画素値を要素とするベクトルと、入力画像に含まれる各画素値を要素とするベクトルとの差分ベクトルの大きさを表す。 The sum of squares of the pixel value difference at the corresponding pixel position of the low resolution image and the input image is set as the evaluation condition of the evaluation function (the first term and the second term on the right side of (Equation 18)). That is, these evaluation conditions represent the size of a difference vector between a vector having each pixel value included in the reduced resolution image as an element and a vector having each pixel value included in the input image as an element.
(数18)の右辺第3項は画像fRの画素値の分布に関する滑らかさの拘束を記述するものであり、これは画素配列を考慮したものであってもよい。この場合、R画像fRの画素値の分布に関する滑らかさの拘束として、xおよびyの2階偏微分は、例えば1,−2,1の3つの係数のフィルタとなり、その2乗は1,−4,6,−4,1の5つの係数のフィルタとなる。本実施形態ではx方向の滑らかさを考慮し、図3の画素配置において、図15に示すような、水平方向に隣接するR画素同士で滑らかさ拘束の演算を行う。これの定式化は、(数18)に示すとおり、ある行列QSRとfRとの積の2次ノルムとしても表現できるし、fRの要素から直接計算もできる。(数17)の行列QSRについて、前記の2階偏微分フィルタ(係数1,−2,1)に対応するものをQSR1、その2乗(係数1,−4,6,−4,1)に対応するものをQSR2とおいたとき、QSR1とfR、ならびにQSR2とfRの積の2次ノルムの2乗をfRの要素から直接求める形で表現すると、次のような形となる。
(数20)および(数21)において、Rxytは位置(x,y)、時刻tにおけるR画素値を示す。また、(数1)における評価関数JRにおいて、重み係数λLR、λSRを調整することにより、生成される画像の画質を調整することができる。すなわち、ノイズがランダムである場合、長時間露出のノイズレベルは短時間露出のノイズレベルと比較して、小さなものとなる。そのため、λLRを大きな重みとした場合、長時間露出に関する拘束条件を優先するため、ノイズ抑制効果が大きくなり、S/Nをより改善されることができる。一方、λSRを大きな重みとした場合、短時間露出に関する拘束条件を優先するため、ノイズ抑制効果はそれほど大きくないが、エッジ情報などの高周波成分が残った、解像度感のある画像を生成することができる。λLR、λSRの値は、3板撮影等で全画素読み出しした画素値が事前に用意できる場合には、生成画像のPSNR(Peak Signal to Noise Ratio)が最良となるように決めればよい。また、撮影シーンを解析することによって、重みの値を決定するようにしても構わない。 In ( Expression 20) and ( Expression 21), R xyt indicates the R pixel value at the position (x, y) and time t. Further, by adjusting the weighting coefficients λ LR and λ SR in the evaluation function JR in (Equation 1), the image quality of the generated image can be adjusted. That is, when the noise is random, the noise level for long exposure is smaller than the noise level for short exposure. For this reason, when λ LR is set to a large weight, priority is given to the constraint condition relating to long-time exposure, so that the noise suppression effect is increased and the S / N can be further improved. On the other hand, lambda case of a larger weight of SR, in order to prioritize constraints concerning short exposure, the noise suppression effect is not so large, the high frequency component such as edge information remained, to generate an image having a resolution feeling Can do. The values of λ LR and λ SR may be determined so that the PSNR (Peak Signal to Noise Ratio) of the generated image is the best when the pixel values read out from all pixels by three-plate photography or the like can be prepared in advance. Further, the weight value may be determined by analyzing the shooting scene.
これは、例えば、画像の輝度値を検出することによって行うようにしてもかまわない。画像の輝度値が低い場合、ノイズレベルが高いと推定できる。そこで、画像の平均輝度値が閾値よりも低い場合、λLRの大きさをλSRと比較して大きくなるように設定することで、ノイズ抑制効果をあげ、また、画像の平均輝度値が閾値よりも低い場合、λSRの大きさをλLRと比較して大きくなるように設定することで、エッジ情報などの高周波成分が残るようにする。 This may be performed, for example, by detecting the luminance value of the image. When the luminance value of the image is low, it can be estimated that the noise level is high. Therefore, when the average luminance value of the image is lower than the threshold value, the noise suppression effect is improved by setting the magnitude of λ LR to be larger than λ SR, and the average luminance value of the image is If it is lower, the size of λ SR is set to be larger than λ LR so that high-frequency components such as edge information remain.
また、例えば、時間的、または空間的な輝度のばらつきを検出することによって行うようにしてもかまわない。輝度のばらつきが大きい場合、ノイズレベルが高いと推定できる。そこで、輝度のばらつきが閾値よりも高い場合、λLRの大きさをλSRと比較して大きくなるように設定することで、ノイズ抑制効果をあげ、また、輝度のばらつきが閾値よりも低い場合、λSRの大きさをλLRと比較して大きくなるように設定することで、エッジ情報などの高周波成分が残るようにする。 Further, for example, it may be performed by detecting temporal or spatial luminance variations. When the variation in luminance is large, it can be estimated that the noise level is high. Therefore, when the luminance variation is higher than the threshold value, the noise suppression effect is improved by setting the size of λ LR to be larger than λ SR, and the luminance variation is lower than the threshold value. , Λ SR is set to be larger than λ LR so that high-frequency components such as edge information remain.
以上のように、評価関数JRにおける重み係数を撮影シーンによって決定することにより、常に最適な画質の画像を生成することができる。 As described above, by determining the weighting coefficient in the evaluation function JR depending on the shooting scene, it is possible to always generate an image with optimum image quality.
本実施形態では、長時間露出画像における、蓄積フレーム数を予め定めておくことを前提としているが、この決定方法について詳述する。ノイズがランダムなノイズである場合、蓄積フレーム数を多くすると、長時間露出のノイズレベルは短時間露出のノイズレベルと比較して、小さなものとなる。そのため、ノイズ抑制効果が大きくなり、S/Nをより改善することができる。一方、蓄積フレーム数を少なくすると、短時間露出画像により近い画像が生成されるため、ノイズ抑制効果はそれほど大きくないが、エッジ情報などの高周波成分が残った、解像度感のある画像を生成することができる。そこで、例えば、蓄積するフレーム数は、ユーザが指定するようにしてもかまわない。これは、制御部104にユーザインターフェイスを有することにより実現する。ユーザインターフェイスはカメラにおけるマニュアル絞り調整機能やマニュアル露出調整機能のような公知の構成でかまわない。前述のように、蓄積フレーム数によって画質が変化するため、このようなインターフェイスを有することにより、ユーザの嗜好に合わせた画像を生成することが可能になる。
In this embodiment, it is assumed that the number of accumulated frames in a long-exposure image is determined in advance. This determination method will be described in detail. If the noise is random noise and the number of accumulated frames is increased, the noise level of the long exposure becomes smaller than the noise level of the short exposure. Therefore, the noise suppression effect is increased and the S / N can be further improved. On the other hand, if the number of accumulated frames is reduced, an image closer to the short-time exposure image is generated, so the noise suppression effect is not so great, but a high-resolution component such as edge information remains is generated. Can do. Therefore, for example, the user may specify the number of frames to be stored. This is realized by having a user interface in the
G画像処理部403における処理は、R画像処理部402における処理に対してサンプリング過程と空間に対する滑らかさ拘束の形が異なる。図8は、前記のR画像処理部402の説明と同様に、図3に示す画素配列の左半分の画素群から画像分離部401によってG画素のみを取り出した場合の画素配列の図である。このとき、求めるべきG画像をfGとすると、fGは次式のように表される。
上記(数22)のうち、長時間露出を求めるために必要なのは、位置(2,1)にあるG211およびG212、位置(4,1)にあるG411およびG412、位置(2,3)にあるG231およびG232、位置(4,3)にあるG431およびG432である。そこで、それらの画素値のみを抽出するための行列を以下のように定義することができる。
行列H1Gは、長時間露出のサンプリング過程であることを考慮して設定される。すなわち、位置(2,1)における長時間露出の画素を得るためには、(x,y)=(2,1)の位置におけるt=1、2の各画素値を加算する必要がある。また、位置(4,1)における長時間露出の画素を得るためには、(x,y)=(4,1)の位置におけるt=1、2の各画素値を加算する必要がある。位置(x,y)=(2,3)および(4,3)の長時間露出の画素も同様である。これらによれば、長時間露出画像の撮像過程は以下のように定式化される。
次に、短時間露出のサンプリング過程H2Gの定式化について、図8に示すG画素の配列の場合について考える。 Next, regarding the formulation of the sampling process H 2G for a short exposure, consider the case of the arrangement of G pixels shown in FIG.
この場合は短時間露出であるため、図3の画素配列の左半分における短時間露出画素Gsの画素値が、t=1および2について必要となる。 In this case, since the exposure is performed for a short time, the pixel values of the short-time exposure pixels Gs in the left half of the pixel array in FIG. 3 are required for t = 1 and 2.
得られるG画像fGの要素は、(数22)の通りであるが、このうち短時間露出を求めるために必要なのは、位置(1,2)についてはG121およびG122、位置(3,2)についてはG321およびG322、位置(1,4)についてはG141およびG142、位置(3,4)についてはG341およびG342である。そこで、それらの画素値のみを抽出するための行列を以下のように定義することができる。
(数25)の第1〜8列が時刻t=1に関し、第9〜16列が時刻t=2に関している。これらによれば、短時間露出ラインの撮像過程は以下のように定式化される。
また、画像fGの画素値の分布に関する滑らかさの拘束は、前記R画像処理部402の(数19)〜(数21)と同じように表現できる。このとき、2階偏微分の1,−2,1の3つの係数のフィルタを、図9に示すような、隣接する2つの行にまたがるジグザグ型に適用する。つまり、(数20)と同様にG画素値から直接滑らかさ拘束項を計算する場合は、図9の画素配置において、G画素の滑らかさの拘束QG1を(数27)に示す形とする。
また、R画像処理部402における処理と同様に、2階偏微分のフィルタの2乗は1,−4,6,−4,1の5つの係数のフィルタとなる。同様に図9のようなジグザグ方向のフィルタ演算を行う場合、G画像に対して(数21)に対応する式を立てると、フィルタ演算は(数28)の形となる。
(数27)および(数28)において、Gxytは位置(x,y)、時刻tにおけるG画素値を示す。 In ( Equation 27) and ( Equation 28), G xyt represents the G pixel value at the position (x, y) and time t.
B画像処理部404における処理は、R画像処理部402における処理に対してサンプリング過程と空間に対する滑らかさ拘束の形が異なる。図10は、前記のR画像処理部402およびG画像処理部403の説明と同様に、図3に示す画素配列の左半分の画素群から画像分離部401によってB画素のみを取り出した場合の画素配列の図である。このとき、求めるべきB画像をfBとすると、fBは次式のように表される。
上記(数29)のうち、長時間露出を求めるために必要なのは、位置(2,2)にあるB221およびB222および位置(4,4)にあるB441およびB442である。そこで、それらの画素値のみを抽出するための行列を以下のように定義することができる。
行列H1Bは、長時間露出のサンプリング過程であることを考慮して設定される。すなわち、位置(2,2)における長時間露出の画素を得るためには、(x,y)=(2,2)の位置におけるt=1、2の各画素値を加算する必要がある。また、位置(4,4)における長時間露出の画素を得るためには、(x,y)=(4,4)の位置におけるt=1、2の各画素値を加算する必要がある。これらによれば、長時間露出画像の撮像過程は以下のように定式化される。
次に、短時間露出のサンプリング過程H2Bの定式化について、図10に示すB画素の配列の場合について考える。この場合は短時間露出であるため、図3の画素配列の左半分における短時間露出画素Bsの画素値が、t=1および2について必要となる。 Next, regarding the formulation of the sampling process H 2B for short exposure, consider the case of the arrangement of B pixels shown in FIG. In this case, since the exposure is performed for a short time, the pixel values of the short-time exposure pixels Bs in the left half of the pixel array in FIG. 3 are required for t = 1 and 2.
得られるB画像fBの要素は、(数29)の通りであるが、このうち短時間露出を求めるために必要なのは、位置(4,2)におけるB421およびB422、位置(2,4)におけるB241およびB242である。そこで、それらの画素値のみを抽出するための行列を以下のように定義することができる。
(数32)の第1〜4列が時刻t=1に関し、第5〜8列が時刻t=2に関している。これらによれば、短時間露出ラインの撮像過程は以下のように定式化される。
また、画像fBの画素値の分布に関する滑らかさの拘束は、2階偏微分のフィルタを、図16に示すように同一の行に属するB画素に水平方向に適用する。R画像処理部402における(数20)、あるいはG画像処理部403における(数27)と同様の式を立てると、B画素の滑らかさの拘束QB1は(数34)に示す形で表現できる。
また、R画像処理部402およびG画像処理部403における処理と同様に、2階偏微分のフィルタの2乗を考えた場合、水平方向のフィルタ演算は(数28)の形で与えられる。
(数34)および(数35)において、Bxytは位置(x,y)、時刻tにおけるB画素値を示す。 In ( Expression 34) and ( Expression 35), B xyt indicates the B pixel value at the position (x, y) and time t.
なお、本発明における単板カラー固体撮像素子102の画素アレイ1701におけるカラーフィルタの配置は、図2に示されるものに限らない。図2の破線で囲まれた4つの画素について、例えば図19に示されるような配置とし、長時間露出画素および短時間露出画素の配置は図3のものとすることも可能である。
Note that the arrangement of the color filters in the
以上説明したように、実施形態1によれば、単板撮像素子に画素ごとに個別に露出時間を設定する機能を付加し、画素毎に時間蓄積された入力画像から新たな画像を生成することによって、撮像時に光量を確保しつつ高解像度かつ高フレームレートで、動きぶれの少ない画像を推定し生成することができる。
また、R/G/B別々に処理を行なうことで、負の色相関が存在する被写体に関しても、画像を劣化させることなく、動きぶれの少ない画像を推定し生成することができる。
As described above, according to the first embodiment, the function of individually setting the exposure time for each pixel is added to the single-plate image sensor, and a new image is generated from the input image accumulated for each pixel. Thus, it is possible to estimate and generate an image with less motion blur while ensuring a light amount at the time of imaging and at a high resolution and a high frame rate.
Further, by performing R / G / B processing separately, it is possible to estimate and generate an image with little motion blur without degrading the image even for a subject having a negative color correlation.
さらに、本発明は、隣接する短時間露光画素と長時間露光画素を用いて滑らかさ拘束を適用するため、長時間露光画素の動きぶれ低減が容易になり、S/Nをより改善することができる。加えて、滑らかさ拘束を水平の一方向あるいは高々2ラインにまたがるジグザグ状に適用することで、滑らかさ拘束演算に関係する水平画素列の数、すなわち滑らかさ拘束の演算時に保持しておくべき画素信号データ量を減らし、演算の際に必要となるメモリ量を節約できる。 Furthermore, since the present invention applies smoothness constraint using adjacent short-time exposure pixels and long-time exposure pixels, motion blur of long-time exposure pixels can be easily reduced, and S / N can be further improved. it can. In addition, the number of horizontal pixel columns related to the smoothness constraint calculation, that is, the smoothness constraint calculation should be maintained by applying the smoothness constraint in a zigzag pattern that extends in one horizontal direction or at most two lines. The amount of pixel signal data can be reduced, and the amount of memory required for computation can be saved.
なお、本実施形態にかかるR画像処理部402、G画像処理部403およびB画像処理部404において、(数4)によって得られる連立方程式を解くことで出力画像fR、fGまたはfBを得るが、この連立方程式の解法は、図5に示した共役勾配法に限られるものではない。以下、R画像処理部402を例にとり、他の解法の例を示す。
In the R
(数1)においてM=2とし、Qとして(数21)の第2式を用いると、評価式JRはfRの2次式となる。評価式を最小化するfRの計算は、(数36)により、fRについての連立方程式の計算に帰着する。
(数37)において、fRは生成する画素数(1フレームの画素数×処理するフレーム数)分の要素を持つため、(数37)の計算量は通常、非常に大規模になる。このような大規模な連立方程式の解法として、共役勾配法や最急降下法等の繰り返し計算により解fRを収束させる方法(繰り返し法)が一般的に用いられる。 In (Expression 37), since f R has elements for the number of pixels to be generated (the number of pixels in one frame × the number of frames to be processed), the calculation amount of (Expression 37) is usually extremely large. As a method for solving such a large-scale simultaneous equation, a method (an iterative method) for converging the solution f R by an iterative calculation such as a conjugate gradient method or a steepest descent method is generally used.
ところが、(数37)においては、評価関数がサンプリング過程の拘束項と空間的な滑らかさ拘束項だけであるため、処理がコンテンツに依存しない。このことを利用すると、連立方程式(数37)の係数行列Aの逆行列をあらかじめ計算でき、これを用いることで直接法により画像処理を行うようにできる。 However, in (Equation 37), since the evaluation functions are only the constraint term of the sampling process and the spatial smoothness constraint term, the processing does not depend on the content. By utilizing this, the inverse matrix of the coefficient matrix A of the simultaneous equations (Equation 37) can be calculated in advance, and by using this, image processing can be performed by a direct method.
(数21)に示す滑らかさ拘束を用いる場合、xおよびyの2階偏微分は、例えば、(数19)に示すように1,−2,1の3つの係数のフィルタとなり、その2乗は1,−4,6,−4,1の5つの係数のフィルタとなる。これらの係数は、水平方向のフーリエ変換と逆変換とで係数行列を挟むことにより、対角化することができる。同様に、長時間露出のサンプリング過程の拘束も、時間方向のフーリエ変換と逆フーリエ変換とで係数行列を挟むことにより、対角化することができる。すなわち、(数38)のように行列をΛと置くことができる。
これにより、一行あたりの非ゼロ係数の数を係数行列Aと比べて低減させることができる。その結果、Λの逆行列Λ-1の計算が容易になる。そして、(数39)および(数40)により、繰り返し計算を行わずに、fRをより少ない演算量と回路規模で求めることができる。
なお、本実施形態におけるR画像処理部402、G画像処理部403およびB画像処理部404は、それぞれ、別々のハードウェア構成である必要はなく、1つの単色画像処理部が時分割で各処理を行ってもよい。
Note that the R
(実施形態2)
本発明にかかる撮像処理装置では、R画像処理部402、G画像処理部403およびB画像処理部404における画像処理法として、出力画像f(fR、fG、fB)に含まれる画像の動きの分布に関する滑らかさの拘束を用いることができる。本実施形態では、動きの分布の滑らかさの拘束を用いた処理方法について述べる。
(Embodiment 2)
In the imaging processing apparatus according to the present invention, as an image processing method in the R
本実施形態にかかるカラー画像処理部105の構成を図11に示す。図中の画像分離部1101と画像統合部1108の機能は、第1実施形態における画像分離部401と画像統合部405のものと同一である。本実施形態では、R画像生成部1102、G画像生成部1104ならびにB画像生成部1106に対し、それぞれR動き検出部1103、G動き検出部1105ならびにB動き検出部1107が付加されている。
FIG. 11 shows the configuration of the color
図11におけるR動き検出部1103、G動き検出部1105とB動き検出部1107で行われる処理は、基本的に同一である。以下R動き検出部1103を例にとって詳細を説明する。R動き検出部1103は、1フレーム期間露出されて得られた画素信号によって形成される画像(短時間露出画像)を受け取る。R動き検出部1103は短時間露出画像を利用して、ブロックマッチング、勾配法、位相相関法等の既存の公知技術によって、短時間露出で撮影された画素値から動き(オプティカルフロー)を検出する。公知技術として、例えばP. Anandan. “Computational framework and an algorithm for the measurement of visual motion”, International Journal of Computer Vision, Vol. 2, pp. 283−310, 1989が知られている。
The processes performed by the R
図12(a)および(b)は、ブロックマッチングによって動き検出を行うときの基準フレームと参照フレームとを示している。R動き検出部1103は、基準とするフレーム(動きを求めるべく着目している時刻tにおける画像)内に、図12(a)に示す窓領域Aを設定し、窓領域内のパターンと類似するパターンを参照フレーム内で探索する。参照フレームとして、例えば着目フレームの次のフレームが利用されることが多い。
FIGS. 12A and 12B show a base frame and a reference frame when motion detection is performed by block matching. The R
探索範囲は、図12(b)に示すように、通常、移動量ゼロの位置Bを基準に予め一定の範囲Cが設定される。また、パターンの類似の度合い(程度)は、(数41)に示す残差平飽和(SSD:Sum of Square Differrences)や、(数42)に示す残差絶対値和(SAD:Sum of Absoluted Differences)を評価値として計算することによって評価する。
(数41)および(数42)において、I(x、y、t)は画像すなわち画素値の時空間的な分布であり、x,y∈Wは、基準フレームの窓領域内に含まれる画素の座標値を意味する。 In (Equation 41) and (Equation 42), I (x, y, t) is a spatio-temporal distribution of images, that is, pixel values, and x, yεW is a pixel included in the window region of the reference frame. The coordinate value of
R動き検出部1103は、探索範囲内で(u,v)を変化させることにより、上記評価値を最小とする(u,v)の組を探索し、これをフレーム間での動きベクトルとする。具体的には、窓領域の設定位置を順次シフトさせることによって、動きを画素毎もしくはブロック毎(例えば8画素×8画素)に求め、動きベクトルを生成する。
The R
上記の様にして得られた(数41)または(数42)を最小にする(u,v)の近傍での(u,v)の値の分布に対して、1次ないし2次関数を当てはめる(等角フィッテング法やパラボラフィッティング法として知られる公知の技術)ことによって、サブピクセル精度の動き検出を行う。 For the distribution of the value of (u, v) in the vicinity of (u, v) that minimizes (Equation 41) or (Equation 42) obtained as described above, a linear or quadratic function is obtained. By applying (a known technique known as an equiangular fitting method or a parabolic fitting method), motion detection with sub-pixel accuracy is performed.
次に、本実施形態におけるR画像生成部1102、G画像生成部1104およびB画像生成部1106での処理内容の、R画像fR、G画像fGあるいはB画像fBに含まれる画像の動きの分布に関する滑らかさの拘束について、R画像生成部1102を例にとり説明する。
Next, the movement of the image included in the R image f R , the G image f G, or the B image f B of the processing contents in the R
R画像fRに含まれる画像の動きの分布に関する滑らかさの拘束としては、下記(数43)または(数44)を用いる。
fRから得られる画像の動きの分布に関する滑らかさの拘束としては、(数43)、(数44)に限らず、例えば(数45)、(数46)に示す1階または2階の方向微分としてもよい。
さらに、(数47)〜(数50)に示すように、(数43)〜(数46)の拘束条件を、fRの画素値のこう配に応じて適応的に変化させてもよい。これにより、画像内のエッジ(輝度変化が不連続な境界)部分に対する滑らかさ拘束の影響を、画像の平坦部分と比べて小さくすることができるため、画像内のエッジをより鮮明に再現することができる。
このような重み関数を導入することにより、fRの動き情報が必要以上に平滑化されることを防ぐことができ、その結果、新たに生成される画像fRが必要以上に平滑化されることを防ぐことができる。 By introducing such a weight function, it is possible to prevent the motion information of f R from being smoothed more than necessary, and as a result, the newly generated image f R is smoothed more than necessary. Can be prevented.
(数43)〜(数50)に示したような、画像fRから得られる動きの分布に関する滑らかさの拘束を導入して(数1)を解く問題に関しては、fRについての滑らかさの拘束を用いる場合と比較して複雑な計算が必要となる。新たに生成すべき画像fRと動き情報(u,v)が相互に依存するためである。 (Number 43) - as shown in equation (50), with respect to the problems solved by introducing the smoothness constraint on the distribution of motion obtained from the image f R (Formula 1), the smoothness of f R Complicated calculation is required as compared with the case of using constraints. This is because the image f R to be newly generated and the motion information (u, v) depend on each other.
この問題に対しては、公知の解法、例えばEMアルゴリズム等を用いた変分問題の解法を用いて計算することができる。その際、繰り返し計算に、新たに生成すべき画像fRと動き情報(u,v)の初期値が必要になる。 This problem can be calculated using a known solution, for example, a variational solution using an EM algorithm or the like. At that time, the image f R to be newly generated and the initial value of the motion information (u, v) are necessary for the repeated calculation.
fRの初期値としては、入力画像の補間拡大画像を用いればよい。一方、動き情報(u,v)としては、動き検出部201において(数41)ないし(数43)を計算して求めた動き情報を用いる。その結果、カラー画像処理部105が、上述のごとく、(数43)〜(数50)に示したような、画像fから得られる動きの分布に関する滑らかさの拘束を導入して(数1)を解くことにより、処理結果の画質を向上させることができる。
The initial value of f R, may be used interpolated and enlarged image of the input image. On the other hand, as the motion information (u, v), motion information obtained by calculating (Equation 41) to (Equation 43) in the motion detection unit 201 is used. As a result, as described above, the color
R画像生成部1102における処理は、第1実施形態の(数11)〜(数16)、(数19)、(数20)に示した画素値の分布に関する滑らかさの拘束のいずれかと、(数43)〜(数50)に示した動きの分布に関する滑らかさの拘束のいずれかの両方を組み合わせて、(数51)のように同時に用いることができる。
また、動きに関する拘束は、(数43)〜(数50)に示した動きベクトルの分布の滑らかさに関するものに限らず、対応点間の残差(動きベクトルの始点と終点間における画素値の差)を評価値として、これを小さくするようにしてもよい。対応点間の残差は、fRを関数fR(x,y,t)として表すと、(数52)のように表すことができる。
fRをベクトルとして、画像全体について考えると、各画素における残差は下記(数53)に示すようにベクトル表現することができる。
残差の平方和は下記(数53)に示すように表すことができる。
(数53)、(数54)において、HmはベクトルfRの要素数(時空間の総画素数)×fRの要素数の行列である。Hmでは、各行において、動きベクトルの視点と終点に相当する要素だけが0でない値を持ち、それ以外の要素は0の値を持つ。動きベクトルが整数精度の場合、視点と終点に相当する要素が、それぞれ、−1と1の値を持ち、他の要素は0である。 In (Expression 53) and (Expression 54), H m is a matrix of the number of elements of the vector f R (the total number of pixels in space-time) × f R. In H m , in each row, only elements corresponding to the viewpoint and end point of the motion vector have non-zero values, and other elements have zero values. When the motion vector has integer precision, the elements corresponding to the viewpoint and the end point have values of −1 and 1, respectively, and the other elements are 0.
画素値の分布に関する滑らかさの拘束と、画像の動きの分布に関する滑らかさの拘束の両方を導入して(数1)を解く問題も、公知の解法(例えばEMアルゴリズム等を用いた変分問題の解法)を利用することができる。 The problem of solving (Equation 1) by introducing both the smoothness constraint relating to the distribution of pixel values and the smoothness constraint relating to the distribution of image motion is also a variational problem using a known solution (for example, an EM algorithm). Can be used.
(数54)をQmとおき、(数51)と組み合わせて拘束条件を(数55)のようにしてもよい。
本実施形態において、図11中の画像分離部1101によって得られるR短時間画像、G短時間画像およびB短時間画像から動き検出を行う場合、例えば線形補間等の補間拡大処理により各色成分画像の欠損部分を補った上で行えばよい。
In this embodiment, when motion detection is performed from the R short-time image, the G short-time image, and the B short-time image obtained by the
なお、本実施形態における動き検出では、図11に示すように、R、G、Bそれぞれの色成分の短時間露出画像を補間拡大した画像から、それぞれの色に対して別々に動き情報を求めてもよいし、例えばR、G、Bすべての色成分の短時間露出画像から輝度画像を生成し、輝度画像上で全色成分の動き情報を一度に求め、それぞれの色成分の処理に用いてもよい。この場合は、例えば図13のように、画像分離部1301によってRGB各色成分に分離する前に動き検出を行い、そこで求められた動き情報を各色成分の画像生成部に供給することができる。
In the motion detection in this embodiment, as shown in FIG. 11, motion information is obtained separately for each color from an image obtained by interpolating and enlarging a short-time exposure image of each of R, G, and B color components. Alternatively, for example, a luminance image is generated from a short-time exposure image of all the R, G, and B color components, and motion information of all the color components is obtained at once on the luminance image and used for processing each color component. May be. In this case, for example, as shown in FIG. 13, motion detection is performed before the
動きベクトルがサブピクセル精度の場合には、動きベクトルのサブピクセル成分の値に応じて、終点近傍の複数の画素に相当する複数の要素が値を持つことになる。
以上述べた方法により、R動き検出部1103、G動き検出部1105およびB動き検出部1107、あるいは動き検出部1302によって、RGBの短時間露出の動画像から抽出した動き情報を用いることにより、ベイヤ配列の撮像素子によって撮像されたRGBの動画像をカラー画像処理部105で高時空間解像度化することができる。
When the motion vector has sub-pixel accuracy, a plurality of elements corresponding to a plurality of pixels near the end point have values according to the value of the sub-pixel component of the motion vector.
By using the motion information extracted from the RGB short-time exposure moving image by the R
(実施形態3)
本発明にかかる撮像処理装置にかかる画像処理は、前記実施形態1および2に記載したような、RGBの色成分ごとに別個に処理する方式に限らず、RGB全色成分を一度に処理するような構成にしてもかまわない。
(Embodiment 3)
The image processing according to the image pickup processing apparatus according to the present invention is not limited to the method of separately processing each RGB color component as described in the first and second embodiments, but may process all RGB color components at once. Any configuration may be used.
本実施形態においては、このような3色成分を同時に処理するような場合の撮像処理装置の構成について述べる。 In the present embodiment, the configuration of an imaging processing apparatus when processing such three color components simultaneously will be described.
本実施形態にかかる撮像処理装置で行う画像処理は、連立方程式を解くという点で前記実施形態1および2と同じである(例えば実施形態1における(数4))。それらの例と異なる点は、本実施形態の構成では実施形態1および2で用いていた画像分離部401あるいは1101、1301を有しないこと、サンプリング過程を記述する式の形が異なること、および空間的な画素値の滑らかさ拘束の形状が異なることである。なお、本実施形態においても、前記第2実施形態のように、画像中の動きの情報を用いることができる。このとき、各画素の動きの検出は、図13の構成のときに行う方法と同一の方法で実現できる。
Image processing performed by the imaging processing apparatus according to the present embodiment is the same as that of the first and second embodiments in that simultaneous equations are solved (for example, (Equation 4) in the first embodiment). The difference from these examples is that the configuration of the present embodiment does not have the
図14は、図3に示す画素配列の左半分の画素群を取り出した図であり、いま画像処理によりこれらの画素の値を求めることを考える。本実施形態においては、図中に示される4×4画素の値を一度に求める。このとき、求めるべきRGB画像をfとすると、fは次式のように表される。
上記(数56)のうち、長時間露光を求めるために必要なのは、位置(1,1)にあるR111およびR112、位置(2,1)にあるG211およびG212、位置(4,1)にあるG411およびG412、位置(2,2)にあるB221およびG222、位置(3,2)にあるG231およびG232、位置(3,3)にあるR331およびR332、位置(4,3)にあるG431およびG432、位置(4,4)にあるB441およびG442である。そこで、それらの画素値のみを抽出するための行列を以下のように定義することができる。
これによれば、長時間露光画像の撮像過程は以下のように定式化される。
次に、短時間露光のサンプリング過程H2の定式化について、図14に示す画素配列の場合について考える。 Next, regarding the formulation of the sampling process H 2 for short-time exposure, consider the case of the pixel array shown in FIG.
得られるRGB画像fの要素は、(数56)の通りであり、このうち短時間露光を求めるために必要なのは、位置(3,1)についてはR311およびR312、位置(1,2)についてはG121およびG122、位置(3,2)についてはG321およびG322、位置(4,2)についてはB421およびB422、位置(1,3)についてはR131およびR132、位置(4,1)についてはG141およびG142、位置(2,4)についてはG241およびG242、位置(3,4)についてはG341およびG342である。そこで、それらの画素値のみを抽出するための行列を以下のように定義することができる。
(数59)の第1〜16列が時刻t=1に関し、第17〜32列が時刻t=2に関している。これらによれば、短時間露光画素の撮像過程は以下のように定式化される。
本実施形態においても、各画素値を求める際に空間的な画素値の滑らかさの拘束条件を適用することができる。本実施形態の構成では、RGBすべての色成分の画素値を一度に求めるが、このときの空間的滑らかさ拘束は、前記第1実施形態のような、各色成分ごとに個別に処理する方法(第1実施形態における(数20)、(数21)、(数27)、(数28)、(数34)、(数35))でも可能であるし、RGBの3色が張る空間から別の3次元空間に変換し、その空間上で適用することも可能である。以下、RGB空間を他の空間に変換したうえで空間的滑らかさ拘束を適用する場合について説明する。 Also in the present embodiment, when obtaining each pixel value, it is possible to apply a spatial smoothness constraint condition of pixel values. In the configuration of the present embodiment, the pixel values of all the color components of RGB are obtained at once, but the spatial smoothness constraint at this time is a method of processing each color component individually as in the first embodiment ( (Equation 20), (Equation 21), (Equation 27), (Equation 28), (Equation 34), (Equation 35) in the first embodiment is also possible, and it is different from the space where three colors of RGB are stretched. It is also possible to convert to a three-dimensional space and apply on that space. Hereinafter, a case where the spatial smoothness constraint is applied after converting the RGB space to another space will be described.
RGB画像fの画素値の分布に関する滑らかさの拘束としては、(数61)もしくは(数62)の拘束式を用いる。
この拘束条件Qは、評価関数Jの一部を構成する。評価関数Jは、第1実施形態の(数1)と同様の形であるが、RGB全色の画素値を対象とするため、(数1)における評価関数JRをJと記す。 This constraint condition Q constitutes a part of the evaluation function J. The evaluation function J has the same form as in (Equation 1) of the first embodiment, but since the pixel values of all the RGB colors are targeted, the evaluation function JR in (Equation 1) is written as J.
なお、(数61)、(数62)で||はベクトルのノルムを表す。べき指数mの値は、前記第1実施形態での説明と同様に、演算量の観点から1または2が望ましい。ここで、Ciは以下の式でfの要素のR,G,B値を変換したものである。
(数63)において、C1、C2、C3を一般的な画像におけるRGBの画素値の分布の第1主成分から、第3主成分にすることにより、滑らかさ拘束についての正則化パラメータの調整をRGB空間で行う場合よりも容易にできる。すなわち、C1成分は輝度にほぼ等しく、C2、C3成分は2つの色成分とみなせ、個別にλciを調整することによって、新たに生成される画像に対する滑らかさ拘束の各項の影響を制御できる。λC1からλC3の値は、3板撮影等で全画素読み出しした画素値が事前に用意できる場合には、生成画像のPSNR(Peak Signal to Noise Ratio)が最良となるように決めればよい。 In (Equation 63), C 1 , C 2 , and C 3 are changed from the first principal component to the third principal component of the RGB pixel value distribution in the general image, so that the regularization parameter for the smoothness constraint is obtained. This adjustment can be made easier than in the RGB space. That is, the C 1 component is almost equal to the luminance, the C 2 and C 3 components can be regarded as two color components, and the influence of each term of the smoothness constraint on the newly generated image by adjusting λ ci individually. Can be controlled. The values of λ C1 to λ C3 may be determined so that the PSNR (Peak Signal to Noise Ratio) of the generated image is the best when the pixel values read out from all pixels by three-plate photography or the like can be prepared in advance.
なお、PSNRは(数64)で定義される。
一方、そうでない場合には、上記の値をもとにマニュアル操作で新たに生成した画質をみながらλciを決めればよい。 On the other hand, in other cases, λ ci may be determined while looking at the image quality newly generated by manual operation based on the above values.
なお、上記の偏微分値∂Ci/∂x、∂Ci/∂y、∂2Ci/∂x2、∂2Ci/∂y2は、着目画素近傍の画素値による差分展開により、例えば(数65)により近似計算できる。
差分展開は上記(数65)に限らず、例えば(数66)の様に、近傍の他の画素を参照するようにしてもよい。
(数66)は(数65)による計算値に対して、近傍で平均化することになる。これにより、空間解像度は低下するが、ノイズの影響を受けにくくできる。さらに、両者の中間的なものとして、0≦α≦1の範囲のαで重み付けをして、以下の式を採用してもよい。
差分展開の計算方法は、処理結果の画質がより改善されるようにノイズレベルに応じてαを予め決めて行ってもよいし、もしくは、回路規模や演算量を少しでも小さくするために、(数65)を用いてもよい。 The difference expansion calculation method may be performed by predetermining α according to the noise level so that the image quality of the processing result is further improved, or in order to reduce the circuit scale and the calculation amount as much as possible ( Equation 65) may be used.
なお、画像fの画素値の分布に関する滑らかさの拘束としては、(数61)、(数62)に限らず、例えば、(数68)に示す2階の方向微分の絶対値のm乗を用いても良い。
さらに、画像fの画素値の分布に関する滑らかさの拘束としては、下記(数70)から(数72)のいずれかのQを用いて、fの画素値のこう配に応じて拘束条件を適応的に変化させてもよい。なお、こう配とは、画像fの画素値の分布関数fを位置について1階微分することによって得られる。
(数70)から(数72)において、w(x,y)は画素値のこう配の関数であり、拘束条件に対する重み関数である。例えば、下記(数73)に示す画素値のこう配成分のべき乗和が、大きい場合にはw(x,y)の値が小さく、逆の場合にはw(x,y)の値が大きくなるようにすると、fのこう配に応じて拘束条件を適応的に変化できる。
このような重み関数を導入することにより、新たに生成される画像fが必要以上に平滑化されることを防ぐことができる。 By introducing such a weight function, it is possible to prevent the newly generated image f from being smoothed more than necessary.
また、(数73)に示す輝度こう配の成分の2乗和の代わりに、(数74)に示す方向微分の、べき乗の大小によって、重み関数w(x,y)を定義してもよい。
(数61)、(数62)、(数66)〜(数72)に示したような、動画像fの画素値の分布に関する滑らかさの拘束を導入する場合は、前記第1実施形態と同様に、公知の解法、例えば有限要素法等の変分問題の解法を用いて計算することができる。 When introducing the constraint of smoothness regarding the distribution of pixel values of the moving image f as shown in (Equation 61), (Equation 62), and (Equation 66) to (Equation 72), Similarly, it can be calculated using a known solution, for example, a solution to a variational problem such as a finite element method.
本実施形態により、(数63)に示すように各色成分間の相関を画像処理に導入することができ、特に正の色相関が存在する被写体に関して、より高画質の動きぶれの少ない画像を推定し生成することができる。 According to the present embodiment, correlation between each color component can be introduced into the image processing as shown in (Equation 63), and an image with higher image quality and less motion blur is estimated particularly for a subject having a positive color correlation. Can be generated.
上述したように、本発明の実施形態における撮像処理装置によれば、所定のフレームレートに対応する露出時間で露光して得られた画素信号が読み出される短時間露出画像と比較し、前記短時間露出画像よりもフレームレートが低くより長い露出時間で読み出す画素を配置することにより、撮像時に蓄積する光量を増加し、より高いS/Nの画像を得ることができる。また、すべての画素を低フレームレート・長時間露出で読み出した画像の動きぶれ除去処理を行う場合に比べ、短時間露出の画素を配置し、読み出し信号に対して画像復元処理を行うことにより、被写体の動きに起因する色にじみを抑制した画像信号を得ることができる。また、滑らかさ拘束を水平の一方向あるいは高々2ラインにまたがるジグザグ状に適用する実施形態では、滑らかさ拘束演算に関係する水平画素列の数、すなわち滑らかさ拘束の演算時に保持しておくべき画素信号データ量を減らし、演算の際に必要となるメモリ量を節約できる。 As described above, according to the imaging processing apparatus of the embodiment of the present invention, the short time exposure image is compared with the short time exposure image in which the pixel signal obtained by exposure with the exposure time corresponding to the predetermined frame rate is read. By arranging pixels to be read with a lower frame rate and longer exposure time than the exposure image, the amount of light accumulated during imaging can be increased, and an image with a higher S / N can be obtained. Also, compared to the case of performing motion blur removal processing for images read out at a low frame rate and long exposure for all pixels, by arranging pixels with short exposure and performing image restoration processing on the readout signal, It is possible to obtain an image signal in which color blur caused by the movement of the subject is suppressed. In the embodiment in which the smoothness constraint is applied in a horizontal direction or zigzag extending across at most two lines, the number of horizontal pixel columns related to the smoothness constraint calculation, that is, the smoothness constraint should be retained. The amount of pixel signal data can be reduced, and the amount of memory required for computation can be saved.
本発明の撮像装置および処理装置は、低光量時の高解像度撮影や小型画素による撮像に有用である。また、本発明は、画像処理プログラムとしても適用が可能である。画像処理プログラムは、例えばコンピュータに画像処理方法のステップを実行させるプログラムであり、例えば一時的でなく有形の記録媒体に記録され得る。 The imaging apparatus and processing apparatus of the present invention are useful for high-resolution imaging at low light amounts and imaging with small pixels. The present invention can also be applied as an image processing program. The image processing program is a program for causing a computer to execute the steps of the image processing method, for example, and may be recorded on a tangible recording medium instead of temporarily.
100 撮像処理装置
101 光学系
102 単板カラー撮像素子
103 読み出し制御部
104 制御部
105 画像処理部
401 画像分離部
402 R画像処理部
403 G画像処理部
404 B画像処理部
DESCRIPTION OF
Claims (14)
前記第1画素ユニットにおける前記2個の第1色画素の一方、前記第2色画素および前記第3色画素、ならびに前記第2画素ユニットにおける前記2個の第1色画素の一方であって前記第1画素ユニットにおける前記第1色画素の前記一方と同じ行に位置する第1色画素からは画素値を第1のフレームレートで読み出し、前記第1画素ユニットにおける前記2個の第1色画素の他方、ならびに前記第2画素ユニットにおける前記2個の第1色画素の他方、前記第2色画素および前記第3色画素からは画素値を、前記第1のフレームレートよりも低い第2のフレームレートで読み出することができる、単板カラー撮像素子と、
前記第1のフレームレートで読み出された画素値と、前記第2のフレームレートで読み出された画素値とに基づいて、前記第1のフレームレートの新たな動画像を生成する画像処理部と、
を備える撮像処理装置。 A first pixel unit in which two first color pixels, one second color pixel, and one third color pixel are arranged so as to form a Bayer array, two first color pixels, A single-plate color imaging device in which a plurality of second color pixels and a second pixel unit in which one third color pixel is arranged so as to form a Bayer array are alternately arranged in rows and columns. ,
One of the two first color pixels in the first pixel unit, the second color pixel and the third color pixel, and one of the two first color pixels in the second pixel unit, A pixel value is read at a first frame rate from a first color pixel located in the same row as the one of the first color pixels in the first pixel unit, and the two first color pixels in the first pixel unit are read out. And the second color pixel from the other of the two first color pixels in the second pixel unit, the second color pixel and the third color pixel have a pixel value lower than the first frame rate. A single-plate color image sensor that can be read at a frame rate;
An image processing unit that generates a new moving image at the first frame rate based on the pixel value read at the first frame rate and the pixel value read at the second frame rate. When,
An imaging processing apparatus comprising:
前記第1色画素から前記第1のフレームレートで読み出された画素値と、前記第1色画素から前記第2のフレームレートで読み出された画素値とに基づいて、第1のフレームレートの第1色動画像を生成する第1の単色画像処理部と、
前記第2色画素から前記第1のフレームレートで読み出された画素値と、前記第2色画素から前記第2のフレームレートで読み出された画素値とに基づいて、前記第1のフレームレートの第2色動画像を生成する第2の単色画像処理部と、
前記第3色画素から前記第1のフレームレートで読み出された画素値と、前記第3色画素から前記第2のフレームレートで読み出された画素値とに基づいて、前記第1のフレームレートの第3色動画像を生成する第3の単色画像処理部と、
を備え、
前記第1、第2および第3動画像から前記カラー動画像を生成する、請求項1に記載の撮像処理装置。 The image processing unit
A first frame rate based on a pixel value read from the first color pixel at the first frame rate and a pixel value read from the first color pixel at the second frame rate. A first monochrome image processing unit for generating a first color moving image of
The first frame based on the pixel value read from the second color pixel at the first frame rate and the pixel value read from the second color pixel at the second frame rate. A second monochromatic image processing unit for generating a second color moving image of the rate;
Based on the pixel value read from the third color pixel at the first frame rate and the pixel value read from the third color pixel at the second frame rate, the first frame A third monochromatic image processing unit for generating a rate third color moving image;
With
The imaging processing apparatus according to claim 1, wherein the color moving image is generated from the first, second, and third moving images.
前記第1の単色画像処理部から出力された前記第1色動画像と、前記第2の単色画像処理部から出力された前記第2色動画像と、前記第3の単色画像処理部から出力された前記第3色動画像とを格納するメモリを備える、請求項2に記載の撮像処理装置。 The image processing unit
The first color moving image output from the first single color image processing unit, the second color moving image output from the second single color image processing unit, and the output from the third single color image processing unit The imaging processing apparatus according to claim 2, further comprising a memory that stores the third color moving image that has been recorded.
前記第1のフレームレートで読み出された画素値に基づいて得られた前記第1の色成分の動画像、前記第2の色成分の動画像または前記第3の色成分の動画像と、前記新たな動画像を前記第1のフレームレートでサンプリングして得られた動画像との第1の差と、
前記第2のフレームレートで読み出された画素値に基づいて得られた前記第1の色成分の動画像、前記第2の色成分の動画像または前記第3の色成分の動画像と、前記新たな動画像を前記第2のフレームレートでサンプリングして得られた動画像との第2の差と、
前記新たな動画像における画素値の分布の変化が少なくなるほど、または前記新たな動画像における前記画素値の変化が一定になるほど、小さくなる拘束条件項と、
を含む評価式を設定し、
前記評価式を最小化する動画像を、前記新たな動画像として求める、請求項1または2に記載の撮像処理装置。 The image processing unit
A moving image of the first color component, a moving image of the second color component, or a moving image of the third color component obtained based on the pixel value read at the first frame rate; A first difference from a moving image obtained by sampling the new moving image at the first frame rate;
A moving image of the first color component, a moving image of the second color component, or a moving image of the third color component obtained based on a pixel value read at the second frame rate; A second difference from a moving image obtained by sampling the new moving image at the second frame rate;
A constraint condition term that decreases as the change in the distribution of pixel values in the new moving image decreases or as the change in the pixel values in the new moving image becomes constant;
Set an evaluation formula containing
The imaging processing apparatus according to claim 1, wherein a moving image that minimizes the evaluation formula is obtained as the new moving image.
前記評価式は、前記第1の差、第2の差、および拘束条件項の各々に乗算された重み係数を含む、請求項1に記載の撮像処理装置。 The image processing unit
The imaging processing apparatus according to claim 1, wherein the evaluation formula includes a weighting factor multiplied by each of the first difference, the second difference, and the constraint condition term.
前記第1のフレームレートで読み出された画素値に基づいて得られた前記第1色成分の動画像、前記第2色成分の動画像または前記第3色成分の動画像を利用して、前記被写体の動きを検出する動き検出部と、
前記動きの検出結果を利用して前記新たな動画像の動きの分布に関する拘束条件項を設定し、前記動きの分布に関する拘束条件項を前記評価式に含める、請求項4から8のいずれかに記載の撮像処理装置。 The image processing unit
Using the moving image of the first color component, the moving image of the second color component, or the moving image of the third color component obtained based on the pixel value read at the first frame rate, A motion detector for detecting the motion of the subject;
The constraint condition term related to the motion distribution of the new moving image is set using the motion detection result, and the constraint condition term related to the motion distribution is included in the evaluation formula. The imaging processing apparatus described.
前記単板カラー撮像素子は、
2個の第1色画素、1個の第2色画素、および1個の第3色画素がベイヤ配列を形成するように配列された第1画素ユニットと、2個の第1色画素、1個の第2色画素、および1個の第3色画素がベイヤ配列を形成するように配列された第2画素ユニットとが行および列状に交互に配列された単板カラー撮像素子であって、
前記第1画素ユニットにおける前記2個の第1色画素の一方、前記第2色画素および前記第3色画素、ならびに前記第2画素ユニットにおける前記2個の第1色画素の一方であって前記第1画素ユニットにおける前記第1色画素の前記一方と同じ行に位置する第1色画素からは画素値を第1のフレームレートで読み出し、前記第1画素ユニットにおける前記2個の第1色画素の他方、ならびに前記第2画素ユニットにおける前記2個の第1色画素の他方、前記第2色画素および前記第3色画素からは画素値を、前記第1のフレームレートよりも低い第2のフレームレートで読み出することができ、
前記単板カラー撮像素子によって前記第1のフレームレートで読み出された画素値と、前記第2のフレームレートで読み出された画素値とを取得するステップと、
前記第1のフレームレートで読み出された前記画素値と、前記第2のフレームレートで読み出された画素値とに基づいて、前記第1のフレームレートの新たな動画像を生成するステップと、
を含む画像処理方法。 An image processing method for performing image processing based on pixel values obtained from a single-plate color imaging device,
The single-plate color image sensor is
A first pixel unit in which two first color pixels, one second color pixel, and one third color pixel are arranged so as to form a Bayer array, two first color pixels, A single-plate color imaging device in which a plurality of second color pixels and a second pixel unit in which one third color pixel is arranged so as to form a Bayer array are alternately arranged in rows and columns. ,
One of the two first color pixels in the first pixel unit, the second color pixel and the third color pixel, and one of the two first color pixels in the second pixel unit, A pixel value is read at a first frame rate from a first color pixel located in the same row as the one of the first color pixels in the first pixel unit, and the two first color pixels in the first pixel unit are read out. And the second color pixel from the other of the two first color pixels in the second pixel unit, the second color pixel and the third color pixel have a pixel value lower than the first frame rate. Can be read at the frame rate,
Obtaining a pixel value read at the first frame rate by the single-plate color image sensor and a pixel value read at the second frame rate;
Generating a new moving image at the first frame rate based on the pixel value read at the first frame rate and the pixel value read at the second frame rate; ,
An image processing method including:
前記単板カラー撮像素子は、
2個の第1色画素、1個の第2色画素、および1個の第3色画素がベイヤ配列を形成するように配列された第1画素ユニットと、2個の第1色画素、1個の第2色画素、および1個の第3色画素がベイヤ配列を形成するように配列された第2画素ユニットとが行および列状に交互に配列された単板カラー撮像素子であって、
前記第1画素ユニットにおける前記2個の第1色画素の一方、前記第2色画素および前記第3色画素、ならびに前記第2画素ユニットにおける前記2個の第1色画素の一方であって前記第1画素ユニットにおける前記第1色画素の前記一方と同じ行に位置する第1色画素からは画素値を第1のフレームレートで読み出し、前記第1画素ユニットにおける前記2個の第1色画素の他方、ならびに前記第2画素ユニットにおける前記2個の第1色画素の他方、前記第2色画素および前記第3色画素からは画素値を、前記第1のフレームレートよりも低い第2のフレームレートで読み出することができ、
前記第1のフレームレートで読み出された前記画素値と、前記第2のフレームレートで読み出された画素値とに基づいて、コンピュータに、前記第1のフレームレートの新たな動画像を生成させる、画像処理プログラム。 An image processing program for performing image processing based on pixel values obtained from a single-plate color imaging device,
The single-plate color image sensor is
A first pixel unit in which two first color pixels, one second color pixel, and one third color pixel are arranged so as to form a Bayer array, two first color pixels, A single-plate color imaging device in which a plurality of second color pixels and a second pixel unit in which one third color pixel is arranged so as to form a Bayer array are alternately arranged in rows and columns. ,
One of the two first color pixels in the first pixel unit, the second color pixel and the third color pixel, and one of the two first color pixels in the second pixel unit, A pixel value is read at a first frame rate from a first color pixel located in the same row as the one of the first color pixels in the first pixel unit, and the two first color pixels in the first pixel unit are read out. And the second color pixel from the other of the two first color pixels in the second pixel unit, the second color pixel and the third color pixel have a pixel value lower than the first frame rate. Can be read at the frame rate,
Based on the pixel value read at the first frame rate and the pixel value read at the second frame rate, a new moving image at the first frame rate is generated on the computer. An image processing program.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2012095424A JP2013223210A (en) | 2012-04-19 | 2012-04-19 | Image pickup treatment apparatus, image pickup treatment method, and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2012095424A JP2013223210A (en) | 2012-04-19 | 2012-04-19 | Image pickup treatment apparatus, image pickup treatment method, and program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2013223210A true JP2013223210A (en) | 2013-10-28 |
Family
ID=49593865
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2012095424A Pending JP2013223210A (en) | 2012-04-19 | 2012-04-19 | Image pickup treatment apparatus, image pickup treatment method, and program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2013223210A (en) |
-
2012
- 2012-04-19 JP JP2012095424A patent/JP2013223210A/en active Pending
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP4598162B2 (en) | Imaging processing device | |
| US8068700B2 (en) | Image processing apparatus, image processing method, and electronic appliance | |
| JP5002738B2 (en) | Image generation device | |
| JP2013223209A (en) | Image pickup processing device | |
| JP5128726B1 (en) | Solid-state imaging device and imaging apparatus including the device | |
| CN101889452B (en) | Image generation device and image generation method | |
| KR102254994B1 (en) | Image processing device, image processing method, electronic apparatus, and program | |
| JP5133281B2 (en) | Imaging processing device | |
| EP2560375B1 (en) | Image processing device, image capture device, program, and image processing method | |
| JP6711612B2 (en) | Image processing apparatus, image processing method, and imaging apparatus | |
| US8018500B2 (en) | Image picking-up processing device, image picking-up device, image processing method and computer program | |
| JP5096645B1 (en) | Image generating apparatus, image generating system, method, and program | |
| JP2011015228A (en) | Image processing device, image processing device, image processing method, and control program of image processor | |
| JP2013223211A (en) | Image pickup treatment apparatus, image pickup treatment method, and program | |
| JP2013223210A (en) | Image pickup treatment apparatus, image pickup treatment method, and program | |
| JP2012216957A (en) | Imaging processing device | |
| JP2013223208A (en) | Image pickup processing device | |
| JP2013223207A (en) | Image pickup processing device | |
| JP4708180B2 (en) | Image processing device | |
| JP6818461B2 (en) | Image pickup device, image processing device, image processing method and image processing program | |
| JP2012099870A (en) | Image pickup device and image pickup method | |
| JP2012119852A (en) | Imaging apparatus and imaging method |