[go: up one dir, main page]

JP2013223210A - Image pickup treatment apparatus, image pickup treatment method, and program - Google Patents

Image pickup treatment apparatus, image pickup treatment method, and program Download PDF

Info

Publication number
JP2013223210A
JP2013223210A JP2012095424A JP2012095424A JP2013223210A JP 2013223210 A JP2013223210 A JP 2013223210A JP 2012095424 A JP2012095424 A JP 2012095424A JP 2012095424 A JP2012095424 A JP 2012095424A JP 2013223210 A JP2013223210 A JP 2013223210A
Authority
JP
Japan
Prior art keywords
color
pixel
image
frame rate
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012095424A
Other languages
Japanese (ja)
Inventor
Yusuke Okada
雄介 岡田
Takeo Azuma
健夫 吾妻
Satoshi Sato
智 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2012095424A priority Critical patent/JP2013223210A/en
Publication of JP2013223210A publication Critical patent/JP2013223210A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Color Television Image Signal Generators (AREA)

Abstract

【課題】光量を確保しS/Nを改善しつつ、色にじみを低減した画像を得る。
【解決手段】撮像処理装置は、第1のフレームレートおよびそれよりも低い第2のフレームレートで読み出される画素の両方を有する単板カラー固体撮像素子であって、該単板カラー固体撮像素子は、前記第1および第2のフレームレートで読み出される画素が3:1の割合で交互に並ぶ水平行と、1:3の割合で交互に並ぶ水平行が、垂直方向に交互に並んでいる。また、該撮像処理装置は、入力カラー画像をRGBの3色成分に分離する画像分離部401、各色の入力画像から前記第1のフレームレートの出力画像を生成する単色画像処理部402、403ならびに404、および各色の処理結果画像からカラー画像を生成する画像統合部405を有し、単色画像処理部では、画素値の空間的な滑らかさに関する拘束を、同一水平ライン上あるいは隣接する2つの水平ライン上の同色画素同士に対して適用する。
【選択図】図4
An image with reduced color blur is obtained while securing a light amount and improving S / N.
An imaging processing apparatus is a single-plate color solid-state image pickup device having both pixels read out at a first frame rate and a second frame rate lower than the first frame rate, and the single-plate color solid-state image pickup device includes: The horizontal lines in which the pixels read out at the first and second frame rates are alternately arranged at a ratio of 3: 1 and the horizontal lines in which the pixels are alternately arranged at a ratio of 1: 3 are alternately arranged in the vertical direction. The imaging processing apparatus also includes an image separation unit 401 that separates an input color image into RGB three-color components, single-color image processing units 402 and 403 that generate an output image of the first frame rate from input images of each color, and 404 and an image integration unit 405 that generates a color image from the processing result image of each color. In the single color image processing unit, constraints on spatial smoothness of pixel values are set on the same horizontal line or two adjacent horizontal lines. This is applied to pixels of the same color on the line.
[Selection] Figure 4

Description

本願は、動画像を生成する撮像処理装置、撮像処理方法および画像処理プログラムに関する。   The present application relates to an imaging processing apparatus that generates a moving image, an imaging processing method, and an image processing program.

従来の撮像処理装置においては、高解像度化を図る目的で撮像素子の画素数が増加する傾向にあった。しかし、撮像素子全体のサイズを大きくするには限界があるため、各画素を小型化せざるを得ない。その一方、画素寸法が小型化されるほど、撮像素子の1画素に入射する光量が減少していた。その結果、各画素の信号対雑音比(S/N)の低下につながり、画質を維持することが困難であった。   In the conventional imaging processing apparatus, the number of pixels of the imaging element tends to increase for the purpose of achieving high resolution. However, since there is a limit to increasing the size of the entire image sensor, each pixel must be downsized. On the other hand, as the pixel size is reduced, the amount of light incident on one pixel of the image sensor decreases. As a result, the signal-to-noise ratio (S / N) of each pixel is reduced, and it is difficult to maintain the image quality.

特許文献1は、赤、緑、青のそれぞれ光を検出する3枚の撮像素子を利用し、露出時間を制御して得られる信号を処理することによって、高解像度で高フレームレートかつ高感度の画像の復元を実現することを開示している。この技術では、2種類の解像度の撮像素子が用いられている。一方の高解像度な撮像素子は長時間露出で画素信号を読み出し、他方の低解像度な撮像素子は短時間露出で画素信号を読み出す。これにより、光量を確保していた。   Patent Document 1 uses three image sensors that detect red, green, and blue light, respectively, and processes signals obtained by controlling exposure time, thereby achieving high resolution, high frame rate, and high sensitivity. It is disclosed that image restoration is realized. In this technology, two types of resolution image sensors are used. One high-resolution image sensor reads pixel signals with long exposure, and the other low-resolution image sensor reads pixel signals with short exposure. Thereby, the light quantity was ensured.

さらに、特許文献2は、特許文献1の手法を単板カメラに拡張し、単板カメラであっても各画素の信号対雑音比(S/N)の低下を抑えながら、画質の維持を実現することを開示している。   Furthermore, Patent Document 2 extends the method of Patent Document 1 to a single-panel camera, and even with a single-panel camera, it maintains image quality while suppressing a decrease in the signal-to-noise ratio (S / N) of each pixel. Is disclosed.

特開2009−105992号公報JP 2009-105992 A 国際公開WO2010/090025号公報International Publication No. WO2010 / 090025

しかしながら、前記高解像度かつ低フレームレートで撮像した色成分画像は、被写体が動いている場合には動きぶれが含まれる画像となってしまう。 本発明の実施形態は、動きぶれに起因する画質の低下を低減することができる撮像処理の技術を提供する。   However, the color component image captured at the high resolution and the low frame rate is an image including motion blur when the subject is moving. Embodiments of the present invention provide an imaging processing technique that can reduce deterioration in image quality caused by motion blur.

ある実施形態において、撮像処理装置は、2個の第1色画素、1個の第2色画素、および1個の第3色画素がベイヤ配列を形成するように配列された第1画素ユニットと、2個の第1色画素、1個の第2色画素、および1個の第3色画素がベイヤ配列を形成するように配列された第2画素ユニットとが行および列状に交互に配列された単板カラー撮像素子であって、前記第1画素ユニットにおける前記2個の第1色画素の一方、前記第2色画素および前記第3色画素、ならびに前記第2画素ユニットにおける前記2個の第1色画素の一方であって前記第1画素ユニットにおける前記第1色画素の前記一方と同じ行に位置する第1色画素からは画素値を第1のフレームレートで読み出し、前記第1画素ユニットにおける前記2個の第1色画素の他方、ならびに前記第2画素ユニットにおける前記2個の第1色画素の他方、前記第2色画素および前記第3色画素からは画素値を、前記第1のフレームレートよりも低い第2のフレームレートで読み出することができる、単板カラー撮像素子と、前記第1のフレームレートで読み出された画素値と、前記第2のフレームレートで読み出された画素値とに基づいて、前記第1のフレームレートの新たな動画像を生成する画像処理部とを備える。   In one embodiment, the imaging processing apparatus includes: a first pixel unit in which two first color pixels, one second color pixel, and one third color pixel are arranged to form a Bayer array; Two first color pixels, one second color pixel, and a second pixel unit in which one third color pixel is arranged so as to form a Bayer array are alternately arranged in rows and columns. A single-plate color imaging device, wherein one of the two first color pixels in the first pixel unit, the second color pixel and the third color pixel, and the two in the second pixel unit. A pixel value is read at a first frame rate from a first color pixel located in the same row as the one of the first color pixels in the first pixel unit. Of the two first color pixels in the pixel unit. And the second frame having a pixel value lower than the first frame rate from the other of the two first color pixels, the second color pixel, and the third color pixel in the second pixel unit. Based on a single-plate color imaging device that can be read at a rate, a pixel value read at the first frame rate, and a pixel value read at the second frame rate, the first And an image processing unit that generates a new moving image having a frame rate of 1.

ある実施形態において、前記画像処理部は、前記第1色画素から前記第1のフレームレートで読み出された画素値と、前記第1色画素から前記第2のフレームレートで読み出された画素値とに基づいて、第1のフレームレートの第1色動画像を生成する第1の単色画像処理部と、前記第2色画素から前記第1のフレームレートで読み出された画素値と、前記第2色画素から前記第2のフレームレートで読み出された画素値とに基づいて、前記第1のフレームレートの第2色動画像を生成する第2の単色画像処理部と、前記第3色画素から前記第1のフレームレートで読み出された画素値と、前記第3色画素から前記第2のフレームレートで読み出された画素値とに基づいて、前記第1のフレームレートの第3色動画像を生成する第3の単色画像処理部とを備え、前記第1、第2および第3動画像から前記カラー動画像を生成する。   In one embodiment, the image processing unit includes a pixel value read from the first color pixel at the first frame rate, and a pixel read from the first color pixel at the second frame rate. A first monochrome image processing unit that generates a first color moving image having a first frame rate based on the value, a pixel value read from the second color pixel at the first frame rate, and A second single-color image processing unit that generates a second color moving image of the first frame rate based on a pixel value read from the second color pixel at the second frame rate; Based on the pixel value read from the three-color pixel at the first frame rate and the pixel value read from the third-color pixel at the second frame rate, the first frame rate Third monochrome image for generating the third color moving image And a processing unit, to generate the color moving image from the first, second and third moving image.

ある実施形態において、前記画像処理部は、前記第1の単色画像処理部から出力された前記第1色動画像と、前記第2の単色画像処理部から出力された前記第2色動画像と、前記第3の単色画像処理部から出力された前記第3色動画像とを格納するメモリを備える。   In one embodiment, the image processing unit includes the first color moving image output from the first single color image processing unit and the second color moving image output from the second single color image processing unit. And a memory for storing the third color moving image output from the third single-color image processing unit.

ある実施形態において、前記画像処理部は、前記第1のフレームレートで読み出された画素値に基づいて得られた前記第1の色成分の動画像、前記第2の色成分の動画像または前記第3の色成分の動画像と、前記新たな動画像を前記第1のフレームレートでサンプリングして得られた動画像との第1の差と、前記第2のフレームレートで読み出された画素値に基づいて得られた前記第1の色成分の動画像、前記第2の色成分の動画像または前記第3の色成分の動画像と、前記新たな動画像を前記第2のフレームレートでサンプリングして得られた動画像との第2の差と、前記新たな動画像における画素値の分布の変化が少なくなるほど、または前記新たな動画像における前記画素値の変化が一定になるほど、小さくなる拘束条件項とを含む評価式を設定し、前記評価式を最小化する動画像を、前記新たな動画像として求める。   In one embodiment, the image processing unit includes the moving image of the first color component, the moving image of the second color component, or the moving image of the second color component obtained based on the pixel value read at the first frame rate. A first difference between the moving image of the third color component and the moving image obtained by sampling the new moving image at the first frame rate and the second moving image are read at the second frame rate. The moving image of the first color component, the moving image of the second color component or the moving image of the third color component obtained based on the obtained pixel value, and the new moving image are converted into the second moving image. The second difference from the moving image obtained by sampling at the frame rate and the change in the distribution of pixel values in the new moving image become smaller, or the change in the pixel value in the new moving image becomes constant. The smaller the constraint condition terms Set the expression, a moving image that minimizes the evaluation formula is determined as the new moving image.

ある実施形態において、前記画像処理部は、前記拘束条件項を、前記第1色画素、第2色画素および第3色画素の各々について設定する。   In one embodiment, the image processing unit sets the constraint condition term for each of the first color pixel, the second color pixel, and the third color pixel.

ある実施形態において、前記画像処理部は、前記第1色画素についての前記拘束条件項を、前記単板カラー固体撮像素子の2行における画素値を用いて算出する。   In one embodiment, the image processing unit calculates the constraint condition term for the first color pixel using pixel values in two rows of the single-plate color solid-state imaging device.

ある実施形態において、前記画像処理部は、前記第2色画素および前記第3色画素についての前記拘束条件項を、前記単板カラー固体撮像素子の1行および/または1列における画素値を用いて算出する。   In one embodiment, the image processing unit uses the pixel value in one row and / or one column of the single-plate color solid-state imaging device as the constraint condition term for the second color pixel and the third color pixel. To calculate.

ある実施形態において、前記画像処理部は、前記評価式は、前記第1の差、第2の差、および拘束条件項の各々に乗算された重み係数を含む。   In one embodiment, the image processing unit includes a weighting factor multiplied by each of the first difference, the second difference, and the constraint condition term.

ある実施形態において、前記第1色画素、第2色画素および第3色画素は、それぞれ、緑色画素、赤色画素および青色画素である。   In one embodiment, the first color pixel, the second color pixel, and the third color pixel are a green pixel, a red pixel, and a blue pixel, respectively.

ある実施形態において、前記画像処理部は、前記第1のフレームレートで読み出された画素値に基づいて得られた前記第1色成分の動画像、前記第2色成分の動画像または前記第3色成分の動画像を利用して、前記被写体の動きを検出する動き検出部と、前記動きの検出結果を利用して前記新たな動画像の動きの分布に関する拘束条件項を設定し、前記動きの分布に関する拘束条件項を前記評価式に含める。   In one embodiment, the image processing unit includes the moving image of the first color component, the moving image of the second color component, or the first moving image obtained based on the pixel value read at the first frame rate. A motion detection unit that detects a motion of the subject using a moving image of three color components; and a constraint condition term relating to the motion distribution of the new moving image is set using the detection result of the motion, A constraint condition term relating to the motion distribution is included in the evaluation formula.

ある実施形態において、画像処理方法は、単板カラー撮像素子から得られる画素値に基づいて画像処理を行うであって、前記単板カラー撮像素子は、2個の第1色画素、1個の第2色画素、および1個の第3色画素がベイヤ配列を形成するように配列された第1画素ユニットと、2個の第1色画素、1個の第2色画素、および1個の第3色画素がベイヤ配列を形成するように配列された第2画素ユニットとが行および列状に交互に配列された単板カラー撮像素子であって、前記第1画素ユニットにおける前記2個の第1色画素の一方、前記第2色画素および前記第3色画素、ならびに前記第2画素ユニットにおける前記2個の第1色画素の一方であって前記第1画素ユニットにおける前記第1色画素の前記一方と同じ行に位置する第1色画素からは画素値を第1のフレームレートで読み出し、前記第1画素ユニットにおける前記2個の第1色画素の他方、ならびに前記第2画素ユニットにおける前記2個の第1色画素の他方、前記第2色画素および前記第3色画素からは画素値を、前記第1のフレームレートよりも低い第2のフレームレートで読み出することができ、前記単板カラー撮像素子によって前記第1のフレームレートで読み出された画素値と、前記第2のフレームレートで読み出された画素値とを取得するステップと、前記第1のフレームレートで読み出された前記画素値と、前記第2のフレームレートで読み出された画素値とに基づいて、前記第1のフレームレートの新たな動画像を生成するステップとを含む。   In one embodiment, the image processing method performs image processing based on a pixel value obtained from a single-plate color imaging device, and the single-plate color imaging device includes two first color pixels, one pixel A first pixel unit in which a second color pixel and one third color pixel are arranged to form a Bayer array, two first color pixels, one second color pixel, and one A single-plate color image sensor in which second pixel units arranged so that third color pixels form a Bayer array are alternately arranged in rows and columns, and the two pixel units in the first pixel unit One of the first color pixels, the second color pixel and the third color pixel, and one of the two first color pixels in the second pixel unit, the first color pixel in the first pixel unit A first color pixel located in the same row as said one of Read pixel values at a first frame rate, the other of the two first color pixels in the first pixel unit, the other of the two first color pixels in the second pixel unit, the second Pixel values can be read out from the two-color pixel and the third color pixel at a second frame rate lower than the first frame rate, and the single-plate color image pickup device at the first frame rate. Obtaining a read pixel value and a pixel value read at the second frame rate; the pixel value read at the first frame rate; and the second frame rate. And generating a new moving image having the first frame rate based on the pixel value read in step (b).

ある実施形態において、前記第1のフレームレートの新たな動画像を生成するステップは色ごとに実行し、その後、前記第1のフレームレートのカラー画像を生成するステップを含む。   In one embodiment, the step of generating a new moving image of the first frame rate is performed for each color, and then includes the step of generating a color image of the first frame rate.

ある実施形態において、画像処理プログラムは、単板カラー撮像素子から得られる画素値に基づいて画像処理を行うための画像処理プログラムであって、前記単板カラー撮像素子は、2個の第1色画素、1個の第2色画素、および1個の第3色画素がベイヤ配列を形成するように配列された第1画素ユニットと、2個の第1色画素、1個の第2色画素、および1個の第3色画素がベイヤ配列を形成するように配列された第2画素ユニットとが行および列状に交互に配列された単板カラー撮像素子であって、前記第1画素ユニットにおける前記2個の第1色画素の一方、前記第2色画素および前記第3色画素、ならびに前記第2画素ユニットにおける前記2個の第1色画素の一方であって前記第1画素ユニットにおける前記第1色画素の前記一方と同じ行に位置する第1色画素からは画素値を第1のフレームレートで読み出し、前記第1画素ユニットにおける前記2個の第1色画素の他方、ならびに前記第2画素ユニットにおける前記2個の第1色画素の他方、前記第2色画素および前記第3色画素からは画素値を、前記第1のフレームレートよりも低い第2のフレームレートで読み出することができ、前記第1のフレームレートで読み出された前記画素値と、前記第2のフレームレートで読み出された画素値とに基づいて、コンピュータに、前記第1のフレームレートの新たな動画像を生成させる。   In one embodiment, the image processing program is an image processing program for performing image processing based on pixel values obtained from a single-plate color image sensor, and the single-plate color image sensor includes two first colors. A first pixel unit in which pixels, one second color pixel, and one third color pixel are arranged so as to form a Bayer array, two first color pixels, and one second color pixel , And a second pixel unit in which one third color pixel is arranged so as to form a Bayer array, and is a single-plate color imaging device in which the first pixel unit is alternately arranged in rows and columns. One of the two first color pixels, one of the second color pixel and the third color pixel, and one of the two first color pixels in the second pixel unit. The one of the first color pixels; The pixel values are read out from the first color pixels located in the same row as the first frame rate, the other of the two first color pixels in the first pixel unit, and the two in the second pixel unit. The pixel value can be read out from the second color pixel and the third color pixel at a second frame rate lower than the first frame rate. Based on the pixel value read at the frame rate and the pixel value read at the second frame rate, a computer generates a new moving image at the first frame rate.

ある実施形態において、前記第1のフレームレートの新たな動画像を生成するステップは色ごとに実行し、その後、前記第1のフレームレートのカラー画像を生成するステップを含む。   In one embodiment, the step of generating a new moving image of the first frame rate is performed for each color, and then includes the step of generating a color image of the first frame rate.

本発明によれば、複数の色の各々について、フレームレートが異なる画像を得て画像処理を行うため、動きぶれに起因する画質の低下を低減することができる。   According to the present invention, for each of a plurality of colors, images having different frame rates are obtained and image processing is performed, so that it is possible to reduce deterioration in image quality due to motion blur.

本発明の実施形態1による撮像処理装置100の構成を示すブロック図1 is a block diagram showing a configuration of an imaging processing apparatus 100 according to Embodiment 1 of the present invention. 単板カラー撮像素子102の画素配列の一例を示す図The figure which shows an example of the pixel arrangement | sequence of the single-plate color image pick-up element 102 本発明における単時間露出画像と長時間露出画像の配置の例を示す図The figure which shows the example of arrangement | positioning of the single time exposure image and long time exposure image in this invention 実施形態1のカラー画像処理部105の内部構成を示す図FIG. 3 is a diagram illustrating an internal configuration of a color image processing unit 105 according to the first embodiment. 共役勾配法の処理手順を示すフローチャートFlow chart showing processing procedure of conjugate gradient method 図5に示す処理を行うためのR画像処理部402の構成例を示す図The figure which shows the structural example of the R image process part 402 for performing the process shown in FIG. 実施形態1の画像分離部401により取り出したR画素の配列の例を示す図FIG. 4 is a diagram illustrating an example of an array of R pixels extracted by the image separation unit 401 according to the first embodiment. 実施形態1の画像分離部401により取り出したG画素の配列の例を示す図FIG. 6 is a diagram illustrating an example of an array of G pixels extracted by the image separation unit 401 according to the first embodiment. 実施形態1のG画素に対する滑らかさ拘束の適用範囲を示す図The figure which shows the applicable range of the smoothness constraint with respect to G pixel of Embodiment 1. 実施形態1の画像分離部401により取り出したB画素の配列の例を示す図FIG. 5 is a diagram illustrating an example of an array of B pixels extracted by the image separation unit 401 according to the first embodiment. 実施形態2のカラー画像処理部105の内部構成例を示す図FIG. 5 is a diagram illustrating an example of an internal configuration of a color image processing unit 105 according to the second embodiment. (a)および(b)は、ブロックマッチングによって動き検出を行うときの基準フレームと参照フレームとを示す図(A) And (b) is a figure which shows the base frame and reference frame when performing motion detection by block matching 実施形態2のカラー画像処理部105の他の内部構成例を示す図FIG. 10 is a diagram illustrating another internal configuration example of the color image processing unit 105 according to the second embodiment. 実施形態3の画素配列の例を示す図The figure which shows the example of the pixel arrangement | sequence of Embodiment 3. 実施形態1のR画素に対する滑らかさ拘束の適用範囲を示す図The figure which shows the applicable range of the smoothness constraint with respect to R pixel of Embodiment 1. 実施形態1のB画素に対する滑らかさ拘束の適用範囲を示す図The figure which shows the applicable range of the smoothness constraint with respect to B pixel of Embodiment 1. 単板カラー固体撮像素子102の構成の例を示す図The figure which shows the example of a structure of the single-plate color solid-state image sensor 102. 単板カラー固体撮像素子102の画素アレイ1701の詳細な構成を示す図The figure which shows the detailed structure of the pixel array 1701 of the single-plate color solid-state image sensor 102. 単板カラー固体撮像素子102の画素アレイ1701の画素配置の他の例を示す図The figure which shows the other example of pixel arrangement | positioning of the pixel array 1701 of the single-plate color solid-state image sensor 102. FIG. 本発明の一態様における撮像処理装置が備える単板カラー撮像素子における画素配置の例を示す平面図The top view which shows the example of pixel arrangement | positioning in the single-plate color image pick-up element with which the imaging processing apparatus in 1 aspect of this invention is provided.

前述の従来技術では、G成分画像を長時間露出で撮像する。このため、例えば被写体がシステム規定の検出範囲よりも大きく動く場合や、被写体の変形を伴うような複雑な動きをする場合などRB成分画像で動きの検出がうまく動作しなかった場合に、G成分の動きぶれが除去しきれずに復元画像に残る。また、被写体の変形を伴うような複雑な動きをする場合などRB成分画像で動きの検出がうまく動作しなかった場合も同様である。G成分の動きぶれが除去しきれずに復元画像に残ると、緑色またはその補色であるマゼンタの色にじみが発生する。そのため、多くの場合得られた動画像の画質は高かったものの、動きの検出が困難な一部の範囲においては、復元した画像上に前記色にじみが見られることがあり、画質改善の余地があった。また、特許文献2においても、さらなるS/Nの改善が望まれている。   In the above-described prior art, a G component image is captured with long exposure. For this reason, for example, when the movement of the subject does not work well in the RB component image, such as when the subject moves larger than the detection range defined by the system or when the subject moves complicatedly with deformation of the subject, the G component The motion blur is not completely removed and remains in the restored image. The same applies to the case where the motion detection does not work well in the RB component image, such as when the subject moves complicatedly with deformation of the subject. If the motion blur of the G component is not completely removed and remains in the restored image, green or magenta color blur, which is a complementary color thereof, occurs. For this reason, although the image quality of the obtained moving image is high in many cases, in some areas where it is difficult to detect motion, the color blur may be seen on the restored image, and there is room for improvement in image quality. there were. Also in Patent Document 2, further improvement of S / N is desired.

本発明の一態様における撮像処理装置は、単板カラー撮像素子と画像処理部とを備える。この単板カラー撮像素子では、図20に例示されるように、第1画素ユニットと第2画素ユニットとが行および列状に交互に配列されている。第1画素ユニットでは、2個の第1色画素(1S,1L)、1個の第2色画素(2S)、および1個の第3色画素(3S)がベイヤ配列を形成するように配列されている。第2画素ユニットでは、2個の第1色画素(1S,1L)、1個の第2色画素(2L)、および1個の第3色画素(3L)がベイヤ配列を形成するように配列されている。ある実施形態において、第1色画素、第2色画素および第3色画素が、それぞれ、緑の画素、赤の画素および青の画素に対応される。3つの色は、緑、赤および青に限定されず、これらの補色であってもよい。第1画素ユニットおよび第2画素ユニットは、画素の周期的な二次元配列を構成する要素にすぎず、各々の画素ユニットの間に特別な境界が設けられているわけではない。また、現実の画素の配列を固定したまま、各画素ユニットを例えば1画素分だけ相対的に移動させてもよい。   An imaging processing apparatus according to an aspect of the present invention includes a single-plate color imaging element and an image processing unit. In this single-plate color imaging device, as illustrated in FIG. 20, the first pixel units and the second pixel units are alternately arranged in rows and columns. In the first pixel unit, two first color pixels (1S, 1L), one second color pixel (2S), and one third color pixel (3S) are arranged so as to form a Bayer array. Has been. In the second pixel unit, two first color pixels (1S, 1L), one second color pixel (2L), and one third color pixel (3L) are arranged so as to form a Bayer array. Has been. In some embodiments, the first color pixel, the second color pixel, and the third color pixel correspond to a green pixel, a red pixel, and a blue pixel, respectively. The three colors are not limited to green, red, and blue, and may be complementary colors thereof. The first pixel unit and the second pixel unit are merely elements constituting a periodic two-dimensional array of pixels, and no special boundary is provided between the pixel units. Alternatively, each pixel unit may be relatively moved by, for example, one pixel while the actual pixel arrangement is fixed.

第1画素ユニットにおける2個の第1色画素(1S,1L)の一方(1S)、第2色画素(2S)および第3色画素(3S)、ならびに第2画素ユニットにおける2個の第1色画素(1S,1L)の一方あって第1画素ユニットにおける第1色画素の前記一方(1S)と同じ行に位置する第1色画素(1S)からは画素値が第1のフレームレート(S: Short)で読み出される。   One of the two first color pixels (1S, 1L) in the first pixel unit (1S), the second color pixel (2S) and the third color pixel (3S), and the two first colors in the second pixel unit From the first color pixel (1S) located in the same row as the one (1S) of the first color pixels in the first pixel unit, which is one of the color pixels (1S, 1L), the pixel value is the first frame rate ( S: Short).

また、第1画素ユニットにおける2個の第1色画素(1S,1L)の他方(1L)、ならびに第2画素ユニットにおける2個の第1色画素の他方(1L)、第2色画素(2L)および第3色画素(3L)からは画素値が、第1のフレームレートよりも低い第2のフレームレート(L: Long)で読み出される。   Also, the other of the two first color pixels (1S, 1L) in the first pixel unit (1L), the other of the two first color pixels in the second pixel unit (1L), and the second color pixel (2L). ) And the third color pixel (3L), pixel values are read out at a second frame rate (L: Long) lower than the first frame rate.

画像処理部は、第1のフレームレートで読み出された画素値と、第2のフレームレートで読み出された画素値とに基づいて、第1のフレームレートの新たな動画像を生成する。実施形態における画像処理部は、第1のフレームレートで読み出された画素値と、第2のフレームレートで読み出された画素値とに基づいて、第1のフレームレートの新たな動画像を生成する処理を、色毎に実行する。そして、色ごとに得られた第1のフレームレートの動画像から第1のフレームレートのカラー画像を得ることが可能になる。   The image processing unit generates a new moving image having the first frame rate based on the pixel value read at the first frame rate and the pixel value read at the second frame rate. The image processing unit according to the embodiment generates a new moving image having the first frame rate based on the pixel value read at the first frame rate and the pixel value read at the second frame rate. The process to generate is executed for each color. A color image having the first frame rate can be obtained from the moving image having the first frame rate obtained for each color.

以下、添付の図面を参照しながら、本発明による撮像処理装置の実施形態を詳細に説明する。   Hereinafter, embodiments of an imaging processing apparatus according to the present invention will be described in detail with reference to the accompanying drawings.

(実施形態1)
図1は、本実施形態における撮像処理装置100の構成を示すブロック図である。撮像処理装置100は、光学系101と、単板カラー撮像素子102と、読み出し制御部103と、制御部104と、カラー画像処理部105とを備えている。以下、撮像処理装置100の各構成要素を詳細に説明する。
(Embodiment 1)
FIG. 1 is a block diagram illustrating a configuration of an imaging processing apparatus 100 according to the present embodiment. The imaging processing apparatus 100 includes an optical system 101, a single plate color imaging element 102, a readout control unit 103, a control unit 104, and a color image processing unit 105. Hereinafter, each component of the imaging processing apparatus 100 will be described in detail.

光学系101は、例えば、カメラレンズであり、被写体の像を撮像素子の像面に結像する。   The optical system 101 is, for example, a camera lens, and forms an image of a subject on the image plane of the image sensor.

単板カラー固体撮像素子102は、赤(R),緑(G),青(B)のカラーフィルタアレイが各画素に装着された撮像素子である。図2は、単板カラー撮像素子102の一例を示す。単板撮像素子の各画素(フォトダイオード)に対応して、ベイヤ配列と呼ばれる配列のカラーフィルタアレイが装着されている。図中の"R"、"Gr"および"Gb"、"B"はそれぞれ「赤」、「緑」、「青」のフィルタを示している。ここで、"Gr"とはR成分のカラーフィルタと同一の行に配置されるG成分のカラーフィルタを示し、"Gb"とはB成分のカラーフィルタと同一の行に配置されるG成分のカラーフィルタを示す。   The single-plate color solid-state imaging device 102 is an imaging device in which a color filter array of red (R), green (G), and blue (B) is attached to each pixel. FIG. 2 shows an example of the single-plate color image sensor 102. Corresponding to each pixel (photodiode) of the single-plate image pickup device, an array of color filters called a Bayer array is mounted. In the drawing, “R”, “Gr”, “Gb”, and “B” indicate “red”, “green”, and “blue” filters, respectively. Here, “Gr” means a G component color filter arranged in the same row as the R component color filter, and “Gb” means a G component arranged in the same row as the B component color filter. A color filter is shown.

単板カラー固体撮像素子102の各画素は、光学系101によって結ばれた光(光学像)を、それぞれに対応して設けられた赤、緑または青のフィルタを通して受け取る。各画素は、画素単位で光電変換を行い、各画素に入射した光の量に応じた画素値(画素信号)を出力する。同じフレーム時刻に撮影された、同じ色成分の画素信号により、その色成分ごとの画像が得られる。全ての色成分の画像により、カラー画像が得られる。   Each pixel of the single-plate color solid-state imaging device 102 receives light (optical image) connected by the optical system 101 through a red, green, or blue filter provided corresponding to the light. Each pixel performs photoelectric conversion on a pixel basis, and outputs a pixel value (pixel signal) corresponding to the amount of light incident on each pixel. An image for each color component is obtained from pixel signals of the same color component that are captured at the same frame time. A color image is obtained from images of all the color components.

以下、本明細書および図面において、赤、緑、青の光を検出する画素を、それぞれ"R"、"G"、"B"によって表すとする。撮像素子の各画素から出力される画素信号は、R,G,Bいずれかの色に関する画素値を持つ。以下、赤、緑、青の色成分の光を検出する画素を、それぞれR画素、G画素ならびにB画素と呼ぶ。また、図3において"Gr"、"Gb"と記載のある位置の画素については、それぞれGr画素、Gb画素と呼ぶ。すなわち、ここでいう"G画素"とは、Gr画素とGb画素を総称したものである。   In the following description and drawings, pixels that detect red, green, and blue light are represented by “R”, “G”, and “B”, respectively. A pixel signal output from each pixel of the image sensor has a pixel value related to any of R, G, and B colors. Hereinafter, pixels that detect light of red, green, and blue color components are referred to as R pixel, G pixel, and B pixel, respectively. In addition, pixels at positions where “Gr” and “Gb” in FIG. 3 are referred to as Gr pixels and Gb pixels, respectively. That is, the “G pixel” here is a generic term for Gr pixel and Gb pixel.

この説明から明らかな通り、撮像素子の各画素は、各色のカラーフィルタを透過した光を受け、受けた光の強さに応じた信号を出力する撮像素子の1単位である。   As is apparent from this description, each pixel of the image sensor is a unit of the image sensor that receives light transmitted through the color filters of each color and outputs a signal corresponding to the intensity of the received light.

読み出し制御部103は、図2に示す配列の単板カラー撮像素子102の各画素の電荷(画素値)の露出時間(または読み出しタイミング)を独立に設定する。読み出し方法は以下に詳細に説明するとおりである。読み出し制御部103の読み出し動作は、制御部104による制御に基づいて実行される。   The readout control unit 103 independently sets the exposure time (or readout timing) of the charge (pixel value) of each pixel of the single-plate color imaging element 102 in the arrangement shown in FIG. The reading method is as described in detail below. The read operation of the read control unit 103 is executed based on control by the control unit 104.

図3に、本実施形態における短時間露出画像と長時間露出画像の配置の例を示している。画素信号の読み出しは、ライン単位で行われる。図3において、R、Gr、Gb、Bの添え字Sは短時間露出を示し、添え字Lは長時間露出を示す。   FIG. 3 shows an example of the arrangement of short-time exposure images and long-time exposure images in the present embodiment. The pixel signal is read out in units of lines. In FIG. 3, the subscript S for R, Gr, Gb, and B indicates short-time exposure, and the subscript L indicates long-time exposure.

本願明細書では、「短時間露出」とは、一般的な動画撮影時の1フレームの時間だけ露光することを意味する。例えば「短時間露出」とは、フレームレートが30フレーム/秒(30fps)の場合には1/30秒の露出時間で露光することに相当する。フレームレートが60フレーム/秒(60fps)の場合には1/60秒である。一方、長時間露出とは、1フレームの露光に要する時間よりも長い時間、例えば2フレームから10フレーム程度の時間露光することを意味する。   In this specification, “short-time exposure” means exposure for one frame time during general moving image shooting. For example, “short-time exposure” corresponds to exposure with an exposure time of 1/30 seconds when the frame rate is 30 frames / second (30 fps). When the frame rate is 60 frames / second (60 fps), it is 1/60 seconds. On the other hand, long exposure means exposure for a time longer than the time required for exposure of one frame, for example, about 2 to 10 frames.

図17に、本実施形態にかかる単板カラー固体撮像素子102の構成の一例を示す。単板カラー固体撮像素子102は、画素アレイ1701、G成分AD変換部1702、G成分HSR1703、RB成分AD変換部1704、RB成分HSR1705ならびに撮像制御部1706を備える。画素アレイ1701は、図3に示すカラーフィルタ配置および長時間露光の画素・短時間露光の画素の配置が実装され、各色成分の入射光を光電変換する。G成分AD変換部1702は、画素アレイ1701から得られたG画素の出力信号を、アナログ‐デジタル変換する。G成分HSR1703は、G成分AD変換部1702の出力を、単板カラー固体撮像素子102の外部に出力する。RB成分AD変換部1704は、画素アレイ1701から得られたRおよびB画素の出力信号をアナログ‐デジタル変換する、RB成分HSR1705は、RB成分AD変換部1704の出力を、単板カラー固体撮像素子102の外部に出力する。撮像制御部1706は、長時間および短時間のそれぞれの露出時間に対応する読み出し信号を、画素アレイ1701に供給する。   FIG. 17 shows an example of the configuration of the single-plate color solid-state imaging device 102 according to this embodiment. The single-plate color solid-state imaging device 102 includes a pixel array 1701, a G component AD conversion unit 1702, a G component HSR 1703, an RB component AD conversion unit 1704, an RB component HSR 1705, and an imaging control unit 1706. The pixel array 1701 is mounted with the color filter arrangement and the long exposure pixel / short exposure pixel arrangement shown in FIG. 3, and photoelectrically converts incident light of each color component. The G component AD converter 1702 performs analog-digital conversion on the output signal of the G pixel obtained from the pixel array 1701. The G component HSR 1703 outputs the output of the G component AD converter 1702 to the outside of the single-plate color solid-state image sensor 102. The RB component AD conversion unit 1704 performs analog-digital conversion on the output signals of the R and B pixels obtained from the pixel array 1701. The RB component HSR 1705 converts the output of the RB component AD conversion unit 1704 into a single-plate color solid-state imaging device. Output outside 102. The imaging control unit 1706 supplies readout signals corresponding to the long exposure time and the short exposure time to the pixel array 1701.

また、図18に、画素アレイ1701の詳細な構成の一例を示す。図18において、長時間露出で撮像する画素(添え字L)については、長時間読み出し信号線1801が接続され、長時間露出・低フレームレートで読み出される。短時間露出(添え字S)の画素については、短時間読み出し信号線1802が接続され、短時間露出・高フレームレートで読み出される。前記長時間読み出し信号線1801および短時間読み出し信号線1802は、図17における撮像制御部1706に接続されており、撮像制御部1706からそれぞれの露出時間に対応する読み出し信号を受け取る。この構成は、上下に隣接する2つの画素で長時間読み出し信号線1801あるいは短時間読み出し信号線1802を共有するため、2つの水平画素列を同時に読み出すことができ、読み出しの高速化を図ることができる。また、図18の構成において、同時に読み出された画素の出力信号が互いに混合することを避けるために、G信号出力線1803とRB信号出力線1804がそれぞれ別個に設けられている。   FIG. 18 shows an example of a detailed configuration of the pixel array 1701. In FIG. 18, a pixel (subscript L) that is imaged with long exposure is connected with a long-time readout signal line 1801 and is read out with long-time exposure and a low frame rate. For short-time exposure (subscript S) pixels, a short-time readout signal line 1802 is connected and readout is performed at a short-time exposure and a high frame rate. The long-time readout signal line 1801 and the short-time readout signal line 1802 are connected to the imaging control unit 1706 in FIG. 17, and receive readout signals corresponding to the respective exposure times from the imaging control unit 1706. In this configuration, since the long-time readout signal line 1801 or the short-time readout signal line 1802 is shared by two adjacent pixels in the upper and lower sides, two horizontal pixel columns can be read out at the same time, and the reading speed can be increased. it can. Further, in the configuration of FIG. 18, the G signal output line 1803 and the RB signal output line 1804 are separately provided in order to prevent the output signals of the pixels simultaneously read out from being mixed with each other.

再び図1を参照する。   Refer to FIG. 1 again.

カラー画像処理部105は、短時間露出画像データと長時間露出画像データを受け取り、これらに画像処理を行うことによって、各画素における画素値(例えば、R,G,Bの画素値)を推定し、高解像度カラー動画像を生成する。   The color image processing unit 105 receives the short-exposure image data and the long-exposure image data, and performs image processing on the image data to estimate pixel values (for example, R, G, and B pixel values) at each pixel. Generate high-resolution color moving images.

図4に、カラー画像処理部105の詳細な構成の一例を示す。カラー画像処理部105は、画像分離部401、R画像処理部402、G画像処理部403、B画像処理部404および画像統合部405を備える。画像分離部401は、図4に示すように、R、Gr、Gb、Bのすべての色成分を含む入力画像を、R成分の画素のみを含む画像(以下R成分画像)、G成分のみの画素を含む画像(G成分画像)ならびにB成分の画素のみを含む画像(B成分画像)の3つに分解する。なお図4においては、図3におけるGrL画素とGbL画素を併せてGLと表記し、また同図におけるGrS画素とGbS画素を併せてGSと表記している。R画像処理部402は、RL画素およびRS画素の画素値から、画像処理を行うことによって各R画素位置における出力画像の画素値を生成する。G画像処理部403は、GL画素およびGS画素の画素値から、画像処理を行うことによって各G画素位置における出力画像の画素値を生成する。B画像処理部404は、BL画素およびBS画素の画素値から、画像処理を行うことによって各B画素位置における出力画像の画素値を生成する。   FIG. 4 shows an example of a detailed configuration of the color image processing unit 105. The color image processing unit 105 includes an image separation unit 401, an R image processing unit 402, a G image processing unit 403, a B image processing unit 404, and an image integration unit 405. As shown in FIG. 4, the image separation unit 401 converts an input image including all color components of R, Gr, Gb, and B into an image including only R component pixels (hereinafter referred to as an R component image) and an image including only the G component. An image including pixels (G component image) and an image including only B component pixels (B component image) are decomposed. In FIG. 4, the GrL pixel and the GbL pixel in FIG. 3 are collectively referred to as GL, and the GrS pixel and the GbS pixel in FIG. 3 are collectively referred to as GS. The R image processing unit 402 generates a pixel value of the output image at each R pixel position by performing image processing from the pixel values of the RL pixel and the RS pixel. The G image processing unit 403 generates a pixel value of the output image at each G pixel position by performing image processing from the pixel values of the GL pixel and the GS pixel. The B image processing unit 404 generates the pixel value of the output image at each B pixel position by performing image processing from the pixel values of the BL pixel and the BS pixel.

画像統合部405は、R画像処理部402、G画像処理部403およびB画像処理部404から出力された各色成分画像を統合し、最終的なカラー画像を生成する。画像統合部405の具体的例は、メモリである。R画像処理部402、G画像処理部403およびB画像処理部404から出力された各データがメモリ内に記録される得る。このメモリから各色のデータを読み出せば、カラー画像を得ることができる。従って、最終的なカラー画像の生成とは、カラー画像を表示することではなく、カラー画像を構成する各色のデータを揃えることを意味する。各色のデータは、同一メモリ内の異なる領域に分けて格納されてもよいし、異なるメモリに分けて格納されてもよい。また、各色のデータが混在した形でメモリ内に格納されてもよい。   The image integration unit 405 integrates the color component images output from the R image processing unit 402, the G image processing unit 403, and the B image processing unit 404, and generates a final color image. A specific example of the image integration unit 405 is a memory. Each data output from the R image processing unit 402, the G image processing unit 403, and the B image processing unit 404 can be recorded in the memory. A color image can be obtained by reading each color data from the memory. Therefore, the final generation of the color image means not aligning the color image but aligning the data of each color constituting the color image. The data of each color may be stored separately in different areas in the same memory, or may be stored separately in different memories. Further, the data of each color may be stored in the memory in a mixed form.

次に、図4におけるR画像処理部402、G画像処理部403およびB画像処理部404の詳細な動作について説明する。これらのそれぞれの処理内容は一部を除いて同一であり、これ以降R画像処理部402を例にとって説明する。R画像処理部402における処理内容の説明の後、G画像処理部403、B画像処理部404における処理の、R画像処理部402との差分点について述べる。   Next, detailed operations of the R image processing unit 402, the G image processing unit 403, and the B image processing unit 404 in FIG. 4 will be described. The contents of each of these processes are the same except for a part, and hereinafter, the R image processing unit 402 will be described as an example. After the description of the processing contents in the R image processing unit 402, differences between the processing in the G image processing unit 403 and the B image processing unit 404 from the R image processing unit 402 will be described.

<各画素におけるR画素値の生成処理>
R画像処理部402は、次式で表される評価関数(評価式)JRを最小化して、各々のRの画素値を計算する。

Figure 2013223210
ここで、H1Rは長時間露出のサンプリング過程、H2Rは短時間露出のサンプリング過程、fRは新たに生成すべき高空間解像度かつ高時間解像度のR画像である。また、λLRおよびλSRは重み係数である。単板カラー撮像素子102によって撮像されたRの短時間露出画像をgSR、長時間露出画像をgLRとする。Mはべき指数、Qは生成すべき画像fが満たすべき条件、すなわち拘束条件である。 <R Pixel Value Generation Processing for Each Pixel>
The R image processing unit 402 calculates an R pixel value by minimizing an evaluation function (evaluation expression) JR represented by the following expression.
Figure 2013223210
Here, H 1R is a long-exposure sampling process, H 2R is a short-exposure sampling process, and f R is a high spatial resolution and high temporal resolution R image to be newly generated. Also, λ LR and λ SR are weighting factors. The short exposure image R picked up by the single-chip color image sensor 102 g SR, the long exposure image and g LR. M is a power index and Q is a condition to be satisfied by the image f to be generated, that is, a constraint condition.

(数1)のべき指数Mの値は、特に限定するものではないが、演算量の観点から、1または2が好ましい。   The value of the exponent M in (Expression 1) is not particularly limited, but 1 or 2 is preferable from the viewpoint of the amount of calculation.

(数1)の第1項は、生成すべきR画像fRを、長時間露出のサンプリング過程H1Rによってサンプリングして得られた画像と、実際に長時間露出画像として得られた、gLRとの差の演算を意味する。長時間露出のサンプリング過程H1Rを予め定めておき、この差分を最小化するfRを求めると、そのfRは、長時間露出によって得られたgLRと最もよく整合するといえる。第2項についても同様に、差分を最小化するfRは、短時間露出によって得られたgSRと最もよく整合するといえる。また、第3項は、解fRを一意に決定するための拘束条件(拘束条件項)である。 The first term of (Equation 1) is the g LR obtained by sampling the R image f R to be generated by the long exposure sampling process H 1R and the actual long exposure image. Means the calculation of the difference between If the long exposure sampling process H 1R is determined in advance and f R that minimizes this difference is obtained, it can be said that f R is the best match with g LR obtained by the long exposure. Similarly, for the second term, f R that minimizes the difference can be said to be the best match with g SR obtained by short-time exposure. The third term is a constraint condition (constraint condition term) for uniquely determining the solution f R.

そして、(数1)の評価関数JRを最小化するR画像fRは、長時間露出および短時間露出によって得られたgLRおよびgsRの両方を総合的によく満足するといえる。画像生成部202は、数1を最小化するR画像fRを計算することで、S/Nが改善されたR画像の画素値を生成する。 Then, R image f R that minimizes the evaluation function J R (Equation 1), both g LR and g sR obtained by exposure and short exposure prolonged said to comprehensively well satisfactory. The image generation unit 202 calculates the R image f R that minimizes Equation 1, thereby generating a pixel value of the R image with improved S / N.

(数1)のJRの最小化は、∂JR/∂fR=0となるR画像fRを求めることによって行う。この計算は、(数1)においてM=2でかつ、QがfRの2次形式の場合には、上述のJRのfRによる偏微分∂JR/∂fRがfRの1次式になるため、線形最適化問題となり連立方程式ARR=bRの計算に帰着する。すなわち、(数1)をfRで偏微分すると、以下のようになる。

Figure 2013223210
J R minimization in (Equation 1) is performed by obtaining an R image f R where ∂J R / ∂f R = 0. This calculation, and a M = 2 in equation (1), when Q is a quadratic form of f R are partial differential ∂J R / ∂f R by f R of the above J R is f R 1 Since it becomes the following equation, it becomes a linear optimization problem, resulting in the calculation of simultaneous equations A R f R = b R. That is, when (Equation 1) is partially differentiated by f R , the following is obtained.
Figure 2013223210

(数2)において、QがfRの2次形式であることを仮定し、次のように書き直す。

Figure 2013223210
ここでQMは列数がfRの要素数に等しい行列であり、||・||はベクトルのノルムを表す。(数2)に(数3)を代入し、右辺=0とおいて変形することで以下の連立方程式を得、R画像fRを計算できる。
Figure 2013223210
In (Equation 2), assuming that Q is a quadratic form of f R , rewrite as follows.
Figure 2013223210
Here, Q M is a matrix whose number of columns is equal to the number of elements of f R , and || · || represents the norm of the vector. By substituting (Equation 3) into (Equation 2) and transforming with the right side = 0, the following simultaneous equations can be obtained, and the R image f R can be calculated.
Figure 2013223210

一方、M=1の場合や、M=3以上の整数の場合、また、Mが整数でない場合には、非線形最適化問題となる。   On the other hand, when M = 1, when M = an integer of 3 or more, and when M is not an integer, a nonlinear optimization problem occurs.

図5は、共役勾配法の処理手順を示す。計算が線形最適化問題になる場合、図5に示す共役勾配法の手順により評価関数JRを最小にするR画像fRを計算することができる。図6は、図5に示す処理を行うためのR画像処理部402の構成例を示す。R画像処理部402は、係数演算部501と、ベクトル演算部502と、演算部503とを有している。なお、図4のG画像処理部403、B画像処理部402についても、図6のR画像処理部402の構成と同様に実現できる。 FIG. 5 shows a processing procedure of the conjugate gradient method. When the calculation becomes a linear optimization problem, the R image f R that minimizes the evaluation function JR can be calculated by the procedure of the conjugate gradient method shown in FIG. FIG. 6 shows a configuration example of the R image processing unit 402 for performing the processing shown in FIG. The R image processing unit 402 includes a coefficient calculation unit 501, a vector calculation unit 502, and a calculation unit 503. Note that the G image processing unit 403 and the B image processing unit 402 in FIG. 4 can be realized in the same manner as the configuration of the R image processing unit 402 in FIG.

係数演算部501は、係数行列ARを計算する。ベクトル演算部502は、定数ベクトルbRを計算する。演算部503は、演算によって得られた行列ARおよびベクトルbRを用いて、ARR=bRの連立方程式を解く。図5に示す処理は、主として演算部503の処理である。行列ARおよびベクトルbRが求まり、制御部104から初期値および終了条件が与えられると図5の処理が開始される。図5の終了条件は、図5に示すk+1ステップ目での残差rk+1が十分小さくなったときである。 The coefficient calculation unit 501 calculates a coefficient matrix A R. The vector calculation unit 502 calculates a constant vector b R. The calculation unit 503 solves the simultaneous equations of A R f R = b R using the matrix A R and the vector b R obtained by the calculation. The process illustrated in FIG. 5 is mainly the process of the calculation unit 503. When the matrix A R and the vector b R are obtained and an initial value and an end condition are given from the control unit 104, the processing of FIG. 5 is started. The end condition in FIG. 5 is when the residual r k + 1 at the (k + 1) th step shown in FIG. 5 becomes sufficiently small.

これにより、評価関数JRを最小化するR画像fRを求める。なお、図5に示すアルゴリズムは公知であるため、詳細な説明は省略する。 Thus, an R image f R that minimizes the evaluation function J R is obtained. Since the algorithm shown in FIG. 5 is known, detailed description thereof is omitted.

以下、(数1)に関してより詳しく説明する。   Hereinafter, (Equation 1) will be described in more detail.

画像fR、gLRおよびgSRは、動画像の各画素値を要素とする縦ベクトルである。以下では、画像についてベクトル表記は、画素値をラスタースキャン順に並べた縦ベクトルを意味し、関数表記は、画素値の時空間的分布を意味する。画素値としては、輝度値の場合は、1画素につき1個の値を考えればよい。fRの要素数は、例えば、生成すべき動画像を横2000画素、縦1000画素、30フレームとすると、2000×1000×30=60000000となる。 The images f R , g LR and g SR are vertical vectors whose elements are the pixel values of the moving image. Hereinafter, the vector notation for an image means a vertical vector in which pixel values are arranged in the raster scan order, and the function notation means a spatio-temporal distribution of pixel values. As a pixel value, in the case of a luminance value, one value may be considered per pixel. The number of elements of f R is, for example, 2000 × 1000 × 30 = 60000000 if the moving image to be generated is 2000 pixels wide, 1000 pixels long, and 30 frames.

R画像fRの縦横の画素数および信号処理に用いるフレーム数は、カラー画像処理部105あるいはR画像処理部402によって設定される。 The number of vertical and horizontal pixels of the R image f R and the number of frames used for signal processing are set by the color image processing unit 105 or the R image processing unit 402.

長時間露出のサンプリング過程H1Rは、行数がgLRの要素数と等しく、列数がfRの要素数と等しい行列である。また、短時間露出サンプリング過程H2Rは、行数がgSRの要素数と等しく、列数がfRの要素数と等しい行列である。 The long exposure sampling process H 1R is a matrix in which the number of rows is equal to the number of elements of g LR and the number of columns is equal to the number of elements of f R. The short-time exposure sampling process H 2R is a matrix whose number of rows is equal to the number of elements of g SR and whose number of columns is equal to the number of elements of f R.

現在一般に普及しているコンピュータでは、動画像の画素数(例えば幅2000画素×高さ1000画素)とフレーム数(例えば30フレーム)に関する情報量が多すぎるため、(数1)を最小化するfRを単一の処理で求めることはできない。この場合、時間的、空間的な部分領域についてfRの一部を求める処理を繰り返すことにより、生成すべき動画像fRを計算することができる。 Since the amount of information relating to the number of pixels of a moving image (for example, 2000 pixels wide × 1000 pixels in height) and the number of frames (for example, 30 frames) is too large in a computer that is currently in widespread use, f (1) is minimized. R cannot be determined in a single process. In this case, the moving image f R to be generated can be calculated by repeating the process of obtaining a part of f R for the temporal and spatial partial regions.

次に、長時間露出のサンプリング過程H1Rの定式化を簡単な例を用いて説明する。図7には、幅4画素(x=1〜4)、高さ4画素(y=1〜4)、2フレーム(t=1,2)の画像をベイヤ配列の単板カラー撮像素子102で撮像し、画像分離部401によってR成分画像のみが取り出された場合の画素配列を示す。これは、図3に示す画素配列において、左側半分の4×4画素の領域に対し、画像分離部401における処理を適用したものと同等である。以下、図7の画素配列で、長時間露出で撮像する画素(図3中で"RL"の記載がある画素)において2フレーム分時間蓄積する場合のgLRの撮像過程について考える。 Next, formulation of the long exposure sampling process H 1R will be described using a simple example. In FIG. 7, an image having a width of 4 pixels (x = 1 to 4), a height of 4 pixels (y = 1 to 4), and two frames (t = 1, 2) is displayed by a single-plate color imaging element 102 having a Bayer arrangement. The pixel arrangement when an image is captured and only the R component image is extracted by the image separation unit 401 is shown. This is equivalent to applying the processing in the image separation unit 401 to the left half 4 × 4 pixel region in the pixel array shown in FIG. 3. In the following, the g LR imaging process in the case where the image is captured for a long time in the pixel array of FIG. 7 (the pixel having “RL” in FIG. 3) is accumulated for two frames.

得られるR画像fRの要素は、t=1、2を含めて以下の(数5)のように表される。

Figure 2013223210
Elements of the obtained R image f R are expressed as in the following (Equation 5) including t = 1 and 2.
Figure 2013223210

(数5)において、R111〜R332は各画素におけるRの画素値を示し、3個の添字は順にx、y、tの値を示す。 In (Expression 5), R 111 to R 332 indicate R pixel values in each pixel, and three subscripts indicate x, y, and t values in order.

上記(数5)のうち、長時間露出を求めるために必要なのは、位置(1,1)にあるR111およびR112、位置(3,3)にあるR331およびR332である。そこで、それらの画素値のみを抽出するための行列を以下のように定義することができる。

Figure 2013223210
Of the above (Equation 5), R 111 and R 112 at the position (1, 1) and R 331 and R 332 at the position (3, 3) are necessary for obtaining the long-time exposure. Therefore, a matrix for extracting only those pixel values can be defined as follows.
Figure 2013223210

行列H1Rは、長時間露出のサンプリング過程であることを考慮して設定される。すなわち、位置(1,1)における長時間露出の画素を得るためには、(x,y)=(1,1)の位置におけるt=1、2の各画素値を加算する必要がある。また、位置(3,3)における長時間露出の画素を得るためには、(x,y)=(3,3)の位置におけるt=1、2の各画素値を加算する必要がある。これらによれば、長時間露出画像の撮像過程は以下のように定式化される。

Figure 2013223210
The matrix H 1R is set in consideration of the long exposure sampling process. That is, in order to obtain a long-exposure pixel at the position (1, 1), it is necessary to add each pixel value at t = 1, 2 at the position (x, y) = (1, 1). Further, in order to obtain a long-exposure pixel at the position (3, 3), it is necessary to add the pixel values of t = 1, 2 at the position (x, y) = (3, 3). According to these, the imaging process of the long exposure image is formulated as follows.
Figure 2013223210

次に、短時間露出のサンプリング過程H2Rの定式化を簡単な例を用いて説明する。先の例と同様に、図7に示すR画素の配列の場合について考える。 Next, the formulation of the sampling process H 2R for a short exposure will be described using a simple example. As in the previous example, consider the case of the arrangement of R pixels shown in FIG.

この場合は短時間露出であるため、図3の画素配列の左半分における短時間露出画素Rsの画素値が、t=1および2について必要となる。   In this case, since the exposure is performed for a short time, the pixel value of the short-time exposure pixel Rs in the left half of the pixel array in FIG. 3 is required for t = 1 and 2.

得られるR画像fRの要素は、(数5)の通りであるが、このうち短時間露出を求めるために必要なのは、位置(3,1)についてはR311およびR312、位置(1,3)についてはR131およびR132である。そこで、それらの画素値のみを抽出するための行列を以下のように定義することができる。

Figure 2013223210
The elements of the obtained R image f R are as shown in (Equation 5). Of these, what is necessary for obtaining the short-time exposure is R 311 and R 312 for the position (3, 1), the position (1, 3) is R 131 and R 132 . Therefore, a matrix for extracting only those pixel values can be defined as follows.
Figure 2013223210

(数8)の第1〜4列が時刻t=1に関し、第5〜8列が時刻t=2に関している。これらによれば、短時間露出ラインの撮像過程は以下のように定式化される。

Figure 2013223210
The first to fourth columns of (Equation 8) relate to time t = 1, and the fifth to eighth columns relate to time t = 2. According to these, the imaging process of the short time exposure line is formulated as follows.
Figure 2013223210

(数7)や(数9)は、R画像fRをベイヤ配列の単板撮像素子により露出時間を変えて撮像しgLR、gSRを得る過程を示す。逆に、gLR、gSRからfRを生成する問題は、一般に逆問題といわれる。拘束条件Qのない場合、下記(数10)を最小化するfRは無数に存在する。

Figure 2013223210
(Equation 7) and (Equation 9) show the process of obtaining g LR and g SR by imaging the R image f R by changing the exposure time with a Bayer array single-plate imaging device. Conversely, the problem of generating f R from g LR and g SR is generally called an inverse problem. In the absence of the constraint condition Q, there are an infinite number of f R that minimize the following (Equation 10).
Figure 2013223210

このことは、サンプリングされない画素値に任意の値を入れても(数10)が成り立つことから、容易に説明できる。そのため、(数10)の最小化によってR画像fRを一意に解くことはできない。
そこで、R画像fRについての一意な解を得るために、拘束条件Qを導入する。Qとして、画素値fRの分布に関する滑らかさの拘束を与える。以下、この拘束の与え方を説明する。
This can be easily explained by the fact that (Equation 10) holds even if an arbitrary value is entered as the pixel value that is not sampled. Therefore, the R image f R cannot be uniquely solved by minimizing (Equation 10).
Therefore, in order to obtain a unique solution for the R image f R , a constraint condition Q is introduced. As Q, a smoothness constraint on the distribution of pixel values f R is given. Hereinafter, how to give this constraint will be described.

まず、R画像fRの画素値の分布に関する滑らかさの拘束としては、(数11)もしくは(数12)の拘束式を用いる。

Figure 2013223210
Figure 2013223210
First, as a constraint of smoothness regarding the distribution of pixel values of the R image f R , the constraint equation of (Equation 11) or (Equation 12) is used.
Figure 2013223210
Figure 2013223210

(数1)に示す通り、拘束条件Qも評価関数JRの一部を構成する。したがって、評価関数JRの値をできるだけ小さくするためには、拘束条件Qも小さい方が好ましい。 As shown in (Equation 1), the constraint condition Q also constitutes a part of the evaluation function JR . Therefore, in order to make the value of the evaluation function JR as small as possible, it is preferable that the constraint condition Q is also small.

(数11)に関しては、画素値fRの分布の変化が少ないほど、Qの値は小さくなる。(数11)に関しては、画素値fRの分布の変化が一定であるほど、Qの値は小さくなる。これらが、画素値fRの分布に関する滑らかさの拘束条件となる。 Regarding (Equation 11), the smaller the change in the distribution of the pixel value f R , the smaller the Q value. Regarding (Equation 11), the value of Q decreases as the change in the distribution of the pixel value f R is constant. These are the constraints of smoothness on the distribution of pixel values f R.

また、(数10)で||はベクトルのノルムを表す。べき指数mの値は、(数1)、(数10)におけるべき指数Mと同様に、演算量の観点から1または2が望ましい。   In addition, || represents the norm of the vector in (Equation 10). The value of the power exponent m is preferably 1 or 2 from the viewpoint of the amount of computation, like the power exponent M in (Equation 1) and (Equation 10).

さらに、画像fの画素値の分布に関する滑らかさの拘束としては、下記(数13)あるいは(数14)のいずれかのQを用いて、fRの画素値のこう配に応じて拘束条件を適応的に変化させてもよい。なお、こう配とは、画像fRの画素値の分布関数fRを位置について1階微分することによって得られる。

Figure 2013223210
Figure 2013223210
Furthermore, as a constraint of smoothness regarding the distribution of the pixel values of the image f, the constraint condition is adapted according to the gradient of the pixel values of f R by using either Q in the following (Equation 13) or (Equation 14). May be changed. Note that the gradient is obtained by first derivative of the distribution function f R of the pixel values of the image f R for the position.
Figure 2013223210
Figure 2013223210

(数13)および(数14)において、w(x,y)は画素値のこう配の関数であり、拘束条件に対する重み関数である。例えば、下記(数15)に示す画素値のこう配成分のべき乗和が、大きい場合にはw(x,y)の値が小さく、逆の場合にはw(x,y)の値が大きくなるようにすると、fRのこう配に応じて拘束条件を適応的に変化できる。

Figure 2013223210
In (Equation 13) and (Equation 14), w (x, y) is a gradient function of pixel values and is a weighting function for the constraint condition. For example, when the power sum of the gradient component of the pixel value shown in (Equation 15) is large, the value of w (x, y) is small, and in the opposite case, the value of w (x, y) is large. By doing so, the constraint condition can be adaptively changed according to the gradient of f R.
Figure 2013223210

このような重み関数を導入することにより、新たに生成される画像fRが必要以上に平滑化されることを防ぐことができる。また、(数15)に示す輝度こう配の成分の2乗和の代わりに、(数16)に示す方向微分の、べき乗の大小によって、重み関数w(x,y)を定義してもよい。

Figure 2013223210
ここで、ベクトルnmaxおよび角度θは方向微分が最大になる方向であり、下記(数17)によって与えられる。
Figure 2013223210
By introducing such a weight function, it is possible to prevent the newly generated image f R from being smoothed more than necessary. Further, the weighting function w (x, y) may be defined by the magnitude of the power of the directional differentiation shown in (Expression 16) instead of the square sum of the components of the luminance gradient shown in (Expression 15).
Figure 2013223210
Here, the vector n max and the angle θ are directions in which the directional differential is maximized and are given by
Figure 2013223210

(数11)、(数12)、(数13)〜(数17)に示したような、動画像fRの画素値の分布に関する滑らかさの拘束を導入して(数1)を解く問題に対しては、公知の解法、例えば有限要素法等の変分問題の解法を用いて計算することができる。 The problem of solving (Equation 1) by introducing smoothness constraints on the distribution of pixel values of the moving image f R as shown in (Equation 11), (Equation 12), and (Equation 13) to (Equation 17). Can be calculated using a known solution, for example, a solution to a variational problem such as a finite element method.

なお、ここでは複数の拘束条件の式について説明したが、これらの最適な組み合わせは、コスト、演算規模、回路規模等の装置の状況に応じて決定すればよい。例えば、画質が最もよくなるものを選択するようにすればよい。「画質が最もよくなる」とは、例えばその映像を確認する者の主観に基づいて決定することができる。   Although a plurality of constraint condition expressions have been described here, the optimal combination of these may be determined according to the status of the apparatus such as cost, operation scale, circuit scale, and the like. For example, what has the best image quality may be selected. “The image quality is the best” can be determined based on the subjectivity of the person who confirms the video, for example.

評価関数JRの一例を(数18)に示す。

Figure 2013223210
An example of the evaluation function J R is shown in (Equation 18).
Figure 2013223210

評価関数JRは、生成したい高解像度カラー画像(目的画像)fRを構成する赤色の画像の関数として定義される。ここで、(数18)右辺の第1項、第2項は、(数1)におけるべき指数Mを2としたものと同一である。 The evaluation function J R is defined as a function of the red image constituting the high resolution color image (target image) f R to be generated. Here, the first term and the second term on the right side of (Equation 18) are the same as those when the exponent M in (Equation 1) is 2.

低解像度化画像および入力画像の対応画素位置における画素値の差の2乗和を、評価関数の評価条件として設定する((数18)の右辺第1項および第2項)。つまり、これらの評価条件は、低解像度化画像に含まれる各画素値を要素とするベクトルと、入力画像に含まれる各画素値を要素とするベクトルとの差分ベクトルの大きさを表す。   The sum of squares of the pixel value difference at the corresponding pixel position of the low resolution image and the input image is set as the evaluation condition of the evaluation function (the first term and the second term on the right side of (Equation 18)). That is, these evaluation conditions represent the size of a difference vector between a vector having each pixel value included in the reduced resolution image as an element and a vector having each pixel value included in the input image as an element.

(数18)の右辺第3項は画像fRの画素値の分布に関する滑らかさの拘束を記述するものであり、これは画素配列を考慮したものであってもよい。この場合、R画像fRの画素値の分布に関する滑らかさの拘束として、xおよびyの2階偏微分は、例えば1,−2,1の3つの係数のフィルタとなり、その2乗は1,−4,6,−4,1の5つの係数のフィルタとなる。本実施形態ではx方向の滑らかさを考慮し、図3の画素配置において、図15に示すような、水平方向に隣接するR画素同士で滑らかさ拘束の演算を行う。これの定式化は、(数18)に示すとおり、ある行列QSRとfRとの積の2次ノルムとしても表現できるし、fRの要素から直接計算もできる。(数17)の行列QSRについて、前記の2階偏微分フィルタ(係数1,−2,1)に対応するものをQSR1、その2乗(係数1,−4,6,−4,1)に対応するものをQSR2とおいたとき、QSR1とfR、ならびにQSR2とfRの積の2次ノルムの2乗をfRの要素から直接求める形で表現すると、次のような形となる。

Figure 2013223210
Figure 2013223210
Figure 2013223210
The third term on the right side of (Equation 18) describes the constraint on smoothness regarding the distribution of the pixel values of the image f R , and this may take into account the pixel arrangement. In this case, as a constraint on the smoothness regarding the distribution of the pixel values of the R image f R , the second-order partial differentiation of x and y is, for example, a filter of three coefficients of 1, −2, and 1, and the square thereof is 1, It becomes a filter of five coefficients of -4, 6, -4, and 1. In the present embodiment, in consideration of the smoothness in the x direction, in the pixel arrangement of FIG. 3, the smoothness constraint is calculated between the R pixels adjacent in the horizontal direction as shown in FIG. This formulation can be expressed as a quadratic norm of the product of a certain matrix Q SR and f R as shown in (Equation 18), or can be directly calculated from the elements of f R. For the matrix Q SR (several 17), wherein the second-order partial differential filter (coefficients 1, -2, 1) Q SR1, the square of the one corresponding to (coefficient 1, 4,6, 4,1 ) Is represented as Q SR2 , and the square of the quadratic norm of the product of Q SR1 and f R and Q SR2 and f R can be expressed directly from the elements of f R as follows: It becomes a shape.
Figure 2013223210
Figure 2013223210
Figure 2013223210

(数20)および(数21)において、Rxytは位置(x,y)、時刻tにおけるR画素値を示す。また、(数1)における評価関数JRにおいて、重み係数λLR、λSRを調整することにより、生成される画像の画質を調整することができる。すなわち、ノイズがランダムである場合、長時間露出のノイズレベルは短時間露出のノイズレベルと比較して、小さなものとなる。そのため、λLRを大きな重みとした場合、長時間露出に関する拘束条件を優先するため、ノイズ抑制効果が大きくなり、S/Nをより改善されることができる。一方、λSRを大きな重みとした場合、短時間露出に関する拘束条件を優先するため、ノイズ抑制効果はそれほど大きくないが、エッジ情報などの高周波成分が残った、解像度感のある画像を生成することができる。λLR、λSRの値は、3板撮影等で全画素読み出しした画素値が事前に用意できる場合には、生成画像のPSNR(Peak Signal to Noise Ratio)が最良となるように決めればよい。また、撮影シーンを解析することによって、重みの値を決定するようにしても構わない。 In ( Expression 20) and ( Expression 21), R xyt indicates the R pixel value at the position (x, y) and time t. Further, by adjusting the weighting coefficients λ LR and λ SR in the evaluation function JR in (Equation 1), the image quality of the generated image can be adjusted. That is, when the noise is random, the noise level for long exposure is smaller than the noise level for short exposure. For this reason, when λ LR is set to a large weight, priority is given to the constraint condition relating to long-time exposure, so that the noise suppression effect is increased and the S / N can be further improved. On the other hand, lambda case of a larger weight of SR, in order to prioritize constraints concerning short exposure, the noise suppression effect is not so large, the high frequency component such as edge information remained, to generate an image having a resolution feeling Can do. The values of λ LR and λ SR may be determined so that the PSNR (Peak Signal to Noise Ratio) of the generated image is the best when the pixel values read out from all pixels by three-plate photography or the like can be prepared in advance. Further, the weight value may be determined by analyzing the shooting scene.

これは、例えば、画像の輝度値を検出することによって行うようにしてもかまわない。画像の輝度値が低い場合、ノイズレベルが高いと推定できる。そこで、画像の平均輝度値が閾値よりも低い場合、λLRの大きさをλSRと比較して大きくなるように設定することで、ノイズ抑制効果をあげ、また、画像の平均輝度値が閾値よりも低い場合、λSRの大きさをλLRと比較して大きくなるように設定することで、エッジ情報などの高周波成分が残るようにする。 This may be performed, for example, by detecting the luminance value of the image. When the luminance value of the image is low, it can be estimated that the noise level is high. Therefore, when the average luminance value of the image is lower than the threshold value, the noise suppression effect is improved by setting the magnitude of λ LR to be larger than λ SR, and the average luminance value of the image is If it is lower, the size of λ SR is set to be larger than λ LR so that high-frequency components such as edge information remain.

また、例えば、時間的、または空間的な輝度のばらつきを検出することによって行うようにしてもかまわない。輝度のばらつきが大きい場合、ノイズレベルが高いと推定できる。そこで、輝度のばらつきが閾値よりも高い場合、λLRの大きさをλSRと比較して大きくなるように設定することで、ノイズ抑制効果をあげ、また、輝度のばらつきが閾値よりも低い場合、λSRの大きさをλLRと比較して大きくなるように設定することで、エッジ情報などの高周波成分が残るようにする。 Further, for example, it may be performed by detecting temporal or spatial luminance variations. When the variation in luminance is large, it can be estimated that the noise level is high. Therefore, when the luminance variation is higher than the threshold value, the noise suppression effect is improved by setting the size of λ LR to be larger than λ SR, and the luminance variation is lower than the threshold value. , Λ SR is set to be larger than λ LR so that high-frequency components such as edge information remain.

以上のように、評価関数JRにおける重み係数を撮影シーンによって決定することにより、常に最適な画質の画像を生成することができる。 As described above, by determining the weighting coefficient in the evaluation function JR depending on the shooting scene, it is possible to always generate an image with optimum image quality.

本実施形態では、長時間露出画像における、蓄積フレーム数を予め定めておくことを前提としているが、この決定方法について詳述する。ノイズがランダムなノイズである場合、蓄積フレーム数を多くすると、長時間露出のノイズレベルは短時間露出のノイズレベルと比較して、小さなものとなる。そのため、ノイズ抑制効果が大きくなり、S/Nをより改善することができる。一方、蓄積フレーム数を少なくすると、短時間露出画像により近い画像が生成されるため、ノイズ抑制効果はそれほど大きくないが、エッジ情報などの高周波成分が残った、解像度感のある画像を生成することができる。そこで、例えば、蓄積するフレーム数は、ユーザが指定するようにしてもかまわない。これは、制御部104にユーザインターフェイスを有することにより実現する。ユーザインターフェイスはカメラにおけるマニュアル絞り調整機能やマニュアル露出調整機能のような公知の構成でかまわない。前述のように、蓄積フレーム数によって画質が変化するため、このようなインターフェイスを有することにより、ユーザの嗜好に合わせた画像を生成することが可能になる。   In this embodiment, it is assumed that the number of accumulated frames in a long-exposure image is determined in advance. This determination method will be described in detail. If the noise is random noise and the number of accumulated frames is increased, the noise level of the long exposure becomes smaller than the noise level of the short exposure. Therefore, the noise suppression effect is increased and the S / N can be further improved. On the other hand, if the number of accumulated frames is reduced, an image closer to the short-time exposure image is generated, so the noise suppression effect is not so great, but a high-resolution component such as edge information remains is generated. Can do. Therefore, for example, the user may specify the number of frames to be stored. This is realized by having a user interface in the control unit 104. The user interface may have a known configuration such as a manual aperture adjustment function or a manual exposure adjustment function in the camera. As described above, since the image quality changes depending on the number of accumulated frames, having such an interface makes it possible to generate an image that matches the user's preference.

G画像処理部403における処理は、R画像処理部402における処理に対してサンプリング過程と空間に対する滑らかさ拘束の形が異なる。図8は、前記のR画像処理部402の説明と同様に、図3に示す画素配列の左半分の画素群から画像分離部401によってG画素のみを取り出した場合の画素配列の図である。このとき、求めるべきG画像をfGとすると、fGは次式のように表される。

Figure 2013223210
The processing in the G image processing unit 403 differs from the processing in the R image processing unit 402 in the form of the sampling process and the smoothness constraint on the space. FIG. 8 is a diagram of a pixel array when only the G pixels are extracted by the image separation unit 401 from the left half pixel group of the pixel array shown in FIG. 3 in the same manner as the description of the R image processing unit 402 described above. At this time, if the G image to be obtained is f G , f G is expressed by the following equation.
Figure 2013223210

上記(数22)のうち、長時間露出を求めるために必要なのは、位置(2,1)にあるG211およびG212、位置(4,1)にあるG411およびG412、位置(2,3)にあるG231およびG232、位置(4,3)にあるG431およびG432である。そこで、それらの画素値のみを抽出するための行列を以下のように定義することができる。

Figure 2013223210
Of the above (Equation 22), in order to obtain long-time exposure, G 211 and G 212 at position (2,1), G 411 and G 412 at position (4,1), position (2, G 231 and G 232 in 3), G 431 and G 432 in position (4, 3). Therefore, a matrix for extracting only those pixel values can be defined as follows.
Figure 2013223210

行列H1Gは、長時間露出のサンプリング過程であることを考慮して設定される。すなわち、位置(2,1)における長時間露出の画素を得るためには、(x,y)=(2,1)の位置におけるt=1、2の各画素値を加算する必要がある。また、位置(4,1)における長時間露出の画素を得るためには、(x,y)=(4,1)の位置におけるt=1、2の各画素値を加算する必要がある。位置(x,y)=(2,3)および(4,3)の長時間露出の画素も同様である。これらによれば、長時間露出画像の撮像過程は以下のように定式化される。

Figure 2013223210
The matrix H 1G is set in consideration of the sampling process of long exposure. That is, in order to obtain a long-exposure pixel at the position (2, 1), it is necessary to add each pixel value at t = 1, 2 at the position (x, y) = (2, 1). Further, in order to obtain a long-exposure pixel at the position (4, 1), it is necessary to add the pixel values of t = 1, 2 at the position (x, y) = (4, 1). The same applies to the pixels with long exposure at the positions (x, y) = (2, 3) and (4, 3). According to these, the imaging process of the long exposure image is formulated as follows.
Figure 2013223210

次に、短時間露出のサンプリング過程H2Gの定式化について、図8に示すG画素の配列の場合について考える。 Next, regarding the formulation of the sampling process H 2G for a short exposure, consider the case of the arrangement of G pixels shown in FIG.

この場合は短時間露出であるため、図3の画素配列の左半分における短時間露出画素Gsの画素値が、t=1および2について必要となる。   In this case, since the exposure is performed for a short time, the pixel values of the short-time exposure pixels Gs in the left half of the pixel array in FIG. 3 are required for t = 1 and 2.

得られるG画像fGの要素は、(数22)の通りであるが、このうち短時間露出を求めるために必要なのは、位置(1,2)についてはG121およびG122、位置(3,2)についてはG321およびG322、位置(1,4)についてはG141およびG142、位置(3,4)についてはG341およびG342である。そこで、それらの画素値のみを抽出するための行列を以下のように定義することができる。

Figure 2013223210
The elements of the G image f G obtained are as shown in (Equation 22). Of these, what is necessary for obtaining the short-time exposure is G 121 and G 122 for the position (1, 2), and the position (3, 3). G 321 and G 322 for 2), the position (l, 4) G 141 and G 142 for, for the location (3,4) is a G 341 and G 342. Therefore, a matrix for extracting only those pixel values can be defined as follows.
Figure 2013223210

(数25)の第1〜8列が時刻t=1に関し、第9〜16列が時刻t=2に関している。これらによれば、短時間露出ラインの撮像過程は以下のように定式化される。

Figure 2013223210
The first to eighth columns of (Equation 25) relate to time t = 1, and the ninth to sixteenth columns relate to time t = 2. According to these, the imaging process of the short time exposure line is formulated as follows.
Figure 2013223210

また、画像fGの画素値の分布に関する滑らかさの拘束は、前記R画像処理部402の(数19)〜(数21)と同じように表現できる。このとき、2階偏微分の1,−2,1の3つの係数のフィルタを、図9に示すような、隣接する2つの行にまたがるジグザグ型に適用する。つまり、(数20)と同様にG画素値から直接滑らかさ拘束項を計算する場合は、図9の画素配置において、G画素の滑らかさの拘束QG1を(数27)に示す形とする。

Figure 2013223210
In addition, the smoothness constraint regarding the distribution of the pixel values of the image f G can be expressed in the same manner as (Expression 19) to (Expression 21) of the R image processing unit 402. At this time, a filter of three coefficients of 1, −2, 1 of second-order partial differentiation is applied to a zigzag type extending over two adjacent rows as shown in FIG. That is, when the smoothness constraint term is calculated directly from the G pixel value as in (Equation 20), the smoothness constraint Q G1 of the G pixel in the pixel arrangement of FIG. .
Figure 2013223210

また、R画像処理部402における処理と同様に、2階偏微分のフィルタの2乗は1,−4,6,−4,1の5つの係数のフィルタとなる。同様に図9のようなジグザグ方向のフィルタ演算を行う場合、G画像に対して(数21)に対応する式を立てると、フィルタ演算は(数28)の形となる。

Figure 2013223210
Similarly to the processing in the R image processing unit 402, the square of the second-order partial differential filter is a filter of five coefficients 1, -4, 6, -4, and 1. Similarly, when performing the zigzag filter operation as shown in FIG. 9, if the equation corresponding to (Equation 21) is established for the G image, the filter operation takes the form of (Equation 28).
Figure 2013223210

(数27)および(数28)において、Gxytは位置(x,y)、時刻tにおけるG画素値を示す。 In ( Equation 27) and ( Equation 28), G xyt represents the G pixel value at the position (x, y) and time t.

B画像処理部404における処理は、R画像処理部402における処理に対してサンプリング過程と空間に対する滑らかさ拘束の形が異なる。図10は、前記のR画像処理部402およびG画像処理部403の説明と同様に、図3に示す画素配列の左半分の画素群から画像分離部401によってB画素のみを取り出した場合の画素配列の図である。このとき、求めるべきB画像をfBとすると、fBは次式のように表される。

Figure 2013223210
The processing in the B image processing unit 404 differs from the processing in the R image processing unit 402 in the form of the sampling process and the smoothness constraint on the space. FIG. 10 shows pixels when only the B pixel is extracted by the image separation unit 401 from the left half pixel group of the pixel array shown in FIG. 3, as in the description of the R image processing unit 402 and the G image processing unit 403. FIG. At this time, assuming that the B image to be obtained is f B , f B is expressed by the following equation.
Figure 2013223210

上記(数29)のうち、長時間露出を求めるために必要なのは、位置(2,2)にあるB221およびB222および位置(4,4)にあるB441およびB442である。そこで、それらの画素値のみを抽出するための行列を以下のように定義することができる。

Figure 2013223210
Of the above (Equation 29), B 221 and B 222 at the position (2, 2) and B 441 and B 442 at the position (4, 4) are required to obtain the long-time exposure. Therefore, a matrix for extracting only those pixel values can be defined as follows.
Figure 2013223210

行列H1Bは、長時間露出のサンプリング過程であることを考慮して設定される。すなわち、位置(2,2)における長時間露出の画素を得るためには、(x,y)=(2,2)の位置におけるt=1、2の各画素値を加算する必要がある。また、位置(4,4)における長時間露出の画素を得るためには、(x,y)=(4,4)の位置におけるt=1、2の各画素値を加算する必要がある。これらによれば、長時間露出画像の撮像過程は以下のように定式化される。

Figure 2013223210
The matrix H 1B is set in consideration of the sampling process of long exposure. That is, in order to obtain a long-exposure pixel at the position (2, 2), it is necessary to add the pixel values at t = 1, 2 at the position (x, y) = (2, 2). Further, in order to obtain a long-exposure pixel at the position (4, 4), it is necessary to add the pixel values of t = 1, 2 at the position (x, y) = (4, 4). According to these, the imaging process of the long exposure image is formulated as follows.
Figure 2013223210

次に、短時間露出のサンプリング過程H2Bの定式化について、図10に示すB画素の配列の場合について考える。この場合は短時間露出であるため、図3の画素配列の左半分における短時間露出画素Bsの画素値が、t=1および2について必要となる。 Next, regarding the formulation of the sampling process H 2B for short exposure, consider the case of the arrangement of B pixels shown in FIG. In this case, since the exposure is performed for a short time, the pixel values of the short-time exposure pixels Bs in the left half of the pixel array in FIG. 3 are required for t = 1 and 2.

得られるB画像fBの要素は、(数29)の通りであるが、このうち短時間露出を求めるために必要なのは、位置(4,2)におけるB421およびB422、位置(2,4)におけるB241およびB242である。そこで、それらの画素値のみを抽出するための行列を以下のように定義することができる。

Figure 2013223210
Elements of the obtained B image f B are as shown in (Equation 29). Of these, what is necessary for obtaining a short-time exposure is B 421 and B 422 at positions (4, 2) and positions (2, 4). B 241 and B 242 in FIG. Therefore, a matrix for extracting only those pixel values can be defined as follows.
Figure 2013223210

(数32)の第1〜4列が時刻t=1に関し、第5〜8列が時刻t=2に関している。これらによれば、短時間露出ラインの撮像過程は以下のように定式化される。

Figure 2013223210
The first to fourth columns of (Equation 32) relate to time t = 1, and the fifth to eighth columns relate to time t = 2. According to these, the imaging process of the short time exposure line is formulated as follows.
Figure 2013223210

また、画像fBの画素値の分布に関する滑らかさの拘束は、2階偏微分のフィルタを、図16に示すように同一の行に属するB画素に水平方向に適用する。R画像処理部402における(数20)、あるいはG画像処理部403における(数27)と同様の式を立てると、B画素の滑らかさの拘束QB1は(数34)に示す形で表現できる。

Figure 2013223210
Further, as a constraint on smoothness regarding the distribution of pixel values of the image f B , a second-order partial differential filter is applied in the horizontal direction to B pixels belonging to the same row as shown in FIG. When a formula similar to (Expression 20) in the R image processing section 402 or (Expression 27) in the G image processing section 403 is established, the smoothness constraint Q B1 of the B pixel can be expressed in the form shown in (Expression 34). .
Figure 2013223210

また、R画像処理部402およびG画像処理部403における処理と同様に、2階偏微分のフィルタの2乗を考えた場合、水平方向のフィルタ演算は(数28)の形で与えられる。

Figure 2013223210
Similarly to the processing in the R image processing unit 402 and the G image processing unit 403, when considering the square of the second-order partial differential filter, the horizontal filter operation is given in the form of (Equation 28).
Figure 2013223210

(数34)および(数35)において、Bxytは位置(x,y)、時刻tにおけるB画素値を示す。 In ( Expression 34) and ( Expression 35), B xyt indicates the B pixel value at the position (x, y) and time t.

なお、本発明における単板カラー固体撮像素子102の画素アレイ1701におけるカラーフィルタの配置は、図2に示されるものに限らない。図2の破線で囲まれた4つの画素について、例えば図19に示されるような配置とし、長時間露出画素および短時間露出画素の配置は図3のものとすることも可能である。   Note that the arrangement of the color filters in the pixel array 1701 of the single-plate color solid-state imaging device 102 in the present invention is not limited to that shown in FIG. The four pixels surrounded by the broken line in FIG. 2 may be arranged as shown in FIG. 19, for example, and the arrangement of the long exposure pixels and the short exposure pixels may be as shown in FIG.

以上説明したように、実施形態1によれば、単板撮像素子に画素ごとに個別に露出時間を設定する機能を付加し、画素毎に時間蓄積された入力画像から新たな画像を生成することによって、撮像時に光量を確保しつつ高解像度かつ高フレームレートで、動きぶれの少ない画像を推定し生成することができる。
また、R/G/B別々に処理を行なうことで、負の色相関が存在する被写体に関しても、画像を劣化させることなく、動きぶれの少ない画像を推定し生成することができる。
As described above, according to the first embodiment, the function of individually setting the exposure time for each pixel is added to the single-plate image sensor, and a new image is generated from the input image accumulated for each pixel. Thus, it is possible to estimate and generate an image with less motion blur while ensuring a light amount at the time of imaging and at a high resolution and a high frame rate.
Further, by performing R / G / B processing separately, it is possible to estimate and generate an image with little motion blur without degrading the image even for a subject having a negative color correlation.

さらに、本発明は、隣接する短時間露光画素と長時間露光画素を用いて滑らかさ拘束を適用するため、長時間露光画素の動きぶれ低減が容易になり、S/Nをより改善することができる。加えて、滑らかさ拘束を水平の一方向あるいは高々2ラインにまたがるジグザグ状に適用することで、滑らかさ拘束演算に関係する水平画素列の数、すなわち滑らかさ拘束の演算時に保持しておくべき画素信号データ量を減らし、演算の際に必要となるメモリ量を節約できる。   Furthermore, since the present invention applies smoothness constraint using adjacent short-time exposure pixels and long-time exposure pixels, motion blur of long-time exposure pixels can be easily reduced, and S / N can be further improved. it can. In addition, the number of horizontal pixel columns related to the smoothness constraint calculation, that is, the smoothness constraint calculation should be maintained by applying the smoothness constraint in a zigzag pattern that extends in one horizontal direction or at most two lines. The amount of pixel signal data can be reduced, and the amount of memory required for computation can be saved.

なお、本実施形態にかかるR画像処理部402、G画像処理部403およびB画像処理部404において、(数4)によって得られる連立方程式を解くことで出力画像fR、fGまたはfBを得るが、この連立方程式の解法は、図5に示した共役勾配法に限られるものではない。以下、R画像処理部402を例にとり、他の解法の例を示す。 In the R image processing unit 402, the G image processing unit 403, and the B image processing unit 404 according to the present embodiment, the output image f R , f G, or f B is obtained by solving the simultaneous equations obtained by (Equation 4). However, the solution of the simultaneous equations is not limited to the conjugate gradient method shown in FIG. Hereinafter, the R image processing unit 402 is taken as an example, and examples of other solutions are shown.

(数1)においてM=2とし、Qとして(数21)の第2式を用いると、評価式JRはfRの2次式となる。評価式を最小化するfRの計算は、(数36)により、fRについての連立方程式の計算に帰着する。

Figure 2013223210
ここで、解くべき連立方程式を(数36)のようにおく。
Figure 2013223210
When M = 2 in (Expression 1) and the second expression of (Expression 21) is used as Q, the evaluation expression J R is a quadratic expression of f R. The calculation of f R that minimizes the evaluation formula results in the calculation of simultaneous equations for f R by (Equation 36).
Figure 2013223210
Here, the simultaneous equations to be solved are set as (Equation 36).
Figure 2013223210

(数37)において、fRは生成する画素数(1フレームの画素数×処理するフレーム数)分の要素を持つため、(数37)の計算量は通常、非常に大規模になる。このような大規模な連立方程式の解法として、共役勾配法や最急降下法等の繰り返し計算により解fRを収束させる方法(繰り返し法)が一般的に用いられる。 In (Expression 37), since f R has elements for the number of pixels to be generated (the number of pixels in one frame × the number of frames to be processed), the calculation amount of (Expression 37) is usually extremely large. As a method for solving such a large-scale simultaneous equation, a method (an iterative method) for converging the solution f R by an iterative calculation such as a conjugate gradient method or a steepest descent method is generally used.

ところが、(数37)においては、評価関数がサンプリング過程の拘束項と空間的な滑らかさ拘束項だけであるため、処理がコンテンツに依存しない。このことを利用すると、連立方程式(数37)の係数行列Aの逆行列をあらかじめ計算でき、これを用いることで直接法により画像処理を行うようにできる。   However, in (Equation 37), since the evaluation functions are only the constraint term of the sampling process and the spatial smoothness constraint term, the processing does not depend on the content. By utilizing this, the inverse matrix of the coefficient matrix A of the simultaneous equations (Equation 37) can be calculated in advance, and by using this, image processing can be performed by a direct method.

(数21)に示す滑らかさ拘束を用いる場合、xおよびyの2階偏微分は、例えば、(数19)に示すように1,−2,1の3つの係数のフィルタとなり、その2乗は1,−4,6,−4,1の5つの係数のフィルタとなる。これらの係数は、水平方向のフーリエ変換と逆変換とで係数行列を挟むことにより、対角化することができる。同様に、長時間露出のサンプリング過程の拘束も、時間方向のフーリエ変換と逆フーリエ変換とで係数行列を挟むことにより、対角化することができる。すなわち、(数38)のように行列をΛと置くことができる。

Figure 2013223210
When the smoothness constraint shown in (Expression 21) is used, the second-order partial differentiation of x and y becomes, for example, a filter of three coefficients 1, -2, and 1 as shown in (Expression 19), and its square Becomes a filter of five coefficients 1, -4, 6, -4, and 1. These coefficients can be diagonalized by sandwiching a coefficient matrix between horizontal Fourier transform and inverse transform. Similarly, the restriction on the sampling process of long exposure can be diagonalized by sandwiching a coefficient matrix between time-direction Fourier transform and inverse Fourier transform. That is, the matrix can be set as Λ as in (Equation 38).
Figure 2013223210

これにより、一行あたりの非ゼロ係数の数を係数行列Aと比べて低減させることができる。その結果、Λの逆行列Λ-1の計算が容易になる。そして、(数39)および(数40)により、繰り返し計算を行わずに、fRをより少ない演算量と回路規模で求めることができる。

Figure 2013223210
Figure 2013223210
As a result, the number of non-zero coefficients per row can be reduced as compared with the coefficient matrix A. As a result, the calculation of the inverse matrix Λ −1 of Λ becomes easy. Then, according to (Equation 39) and (Equation 40), f R can be obtained with a smaller calculation amount and circuit scale without performing repeated calculations.
Figure 2013223210
Figure 2013223210

なお、本実施形態におけるR画像処理部402、G画像処理部403およびB画像処理部404は、それぞれ、別々のハードウェア構成である必要はなく、1つの単色画像処理部が時分割で各処理を行ってもよい。   Note that the R image processing unit 402, the G image processing unit 403, and the B image processing unit 404 in the present embodiment do not have to have separate hardware configurations, and one single-color image processing unit performs each processing in a time division manner. May be performed.

(実施形態2)
本発明にかかる撮像処理装置では、R画像処理部402、G画像処理部403およびB画像処理部404における画像処理法として、出力画像f(fR、fG、fB)に含まれる画像の動きの分布に関する滑らかさの拘束を用いることができる。本実施形態では、動きの分布の滑らかさの拘束を用いた処理方法について述べる。
(Embodiment 2)
In the imaging processing apparatus according to the present invention, as an image processing method in the R image processing unit 402, the G image processing unit 403, and the B image processing unit 404, an image included in the output image f (f R , f G , f B ) is processed. Smoothness constraints on the motion distribution can be used. In the present embodiment, a processing method using the constraint on the smoothness of the motion distribution will be described.

本実施形態にかかるカラー画像処理部105の構成を図11に示す。図中の画像分離部1101と画像統合部1108の機能は、第1実施形態における画像分離部401と画像統合部405のものと同一である。本実施形態では、R画像生成部1102、G画像生成部1104ならびにB画像生成部1106に対し、それぞれR動き検出部1103、G動き検出部1105ならびにB動き検出部1107が付加されている。   FIG. 11 shows the configuration of the color image processing unit 105 according to the present embodiment. The functions of the image separation unit 1101 and the image integration unit 1108 in the figure are the same as those of the image separation unit 401 and the image integration unit 405 in the first embodiment. In the present embodiment, an R motion detector 1103, a G motion detector 1105, and a B motion detector 1107 are added to the R image generator 1102, the G image generator 1104, and the B image generator 1106, respectively.

図11におけるR動き検出部1103、G動き検出部1105とB動き検出部1107で行われる処理は、基本的に同一である。以下R動き検出部1103を例にとって詳細を説明する。R動き検出部1103は、1フレーム期間露出されて得られた画素信号によって形成される画像(短時間露出画像)を受け取る。R動き検出部1103は短時間露出画像を利用して、ブロックマッチング、勾配法、位相相関法等の既存の公知技術によって、短時間露出で撮影された画素値から動き(オプティカルフロー)を検出する。公知技術として、例えばP. Anandan. “Computational framework and an algorithm for the measurement of visual motion”, International Journal of Computer Vision, Vol. 2, pp. 283−310, 1989が知られている。   The processes performed by the R motion detection unit 1103, the G motion detection unit 1105, and the B motion detection unit 1107 in FIG. 11 are basically the same. Details will be described below by taking the R motion detection unit 1103 as an example. The R motion detection unit 1103 receives an image (short-time exposure image) formed by a pixel signal obtained by being exposed for one frame period. The R motion detection unit 1103 uses a short-time exposure image to detect motion (optical flow) from pixel values photographed with short-time exposure using existing known techniques such as block matching, gradient method, and phase correlation method. . Examples of known techniques include P.I. Anandan. “Computational framework and an algorithm for the measurement of visual motion”, International Journal of Computer Vision, Vol. 2, pp. 283-310, 1989 is known.

図12(a)および(b)は、ブロックマッチングによって動き検出を行うときの基準フレームと参照フレームとを示している。R動き検出部1103は、基準とするフレーム(動きを求めるべく着目している時刻tにおける画像)内に、図12(a)に示す窓領域Aを設定し、窓領域内のパターンと類似するパターンを参照フレーム内で探索する。参照フレームとして、例えば着目フレームの次のフレームが利用されることが多い。   FIGS. 12A and 12B show a base frame and a reference frame when motion detection is performed by block matching. The R motion detection unit 1103 sets a window area A shown in FIG. 12A in a reference frame (an image at time t when attention is given to obtain motion), and is similar to the pattern in the window area. Search for a pattern in the reference frame. As the reference frame, for example, a frame next to the frame of interest is often used.

探索範囲は、図12(b)に示すように、通常、移動量ゼロの位置Bを基準に予め一定の範囲Cが設定される。また、パターンの類似の度合い(程度)は、(数41)に示す残差平飽和(SSD:Sum of Square Differrences)や、(数42)に示す残差絶対値和(SAD:Sum of Absoluted Differences)を評価値として計算することによって評価する。

Figure 2013223210
Figure 2013223210
As shown in FIG. 12B, the search range is normally set in advance with a certain range C based on the position B where the movement amount is zero. In addition, the degree of similarity (degree) of the pattern is determined by the residual flat saturation (SSD: Sum of Square Differences) shown in (Equation 41) and the residual absolute value sum (SAD: Sum of Absorbed Differences) shown in (Equation 42). ) Is calculated as an evaluation value.
Figure 2013223210
Figure 2013223210

(数41)および(数42)において、I(x、y、t)は画像すなわち画素値の時空間的な分布であり、x,y∈Wは、基準フレームの窓領域内に含まれる画素の座標値を意味する。   In (Equation 41) and (Equation 42), I (x, y, t) is a spatio-temporal distribution of images, that is, pixel values, and x, yεW is a pixel included in the window region of the reference frame. The coordinate value of

R動き検出部1103は、探索範囲内で(u,v)を変化させることにより、上記評価値を最小とする(u,v)の組を探索し、これをフレーム間での動きベクトルとする。具体的には、窓領域の設定位置を順次シフトさせることによって、動きを画素毎もしくはブロック毎(例えば8画素×8画素)に求め、動きベクトルを生成する。   The R motion detection unit 1103 searches for a group (u, v) that minimizes the evaluation value by changing (u, v) within the search range, and uses this as a motion vector between frames. . Specifically, by sequentially shifting the set position of the window area, a motion is obtained for each pixel or each block (for example, 8 pixels × 8 pixels), and a motion vector is generated.

上記の様にして得られた(数41)または(数42)を最小にする(u,v)の近傍での(u,v)の値の分布に対して、1次ないし2次関数を当てはめる(等角フィッテング法やパラボラフィッティング法として知られる公知の技術)ことによって、サブピクセル精度の動き検出を行う。   For the distribution of the value of (u, v) in the vicinity of (u, v) that minimizes (Equation 41) or (Equation 42) obtained as described above, a linear or quadratic function is obtained. By applying (a known technique known as an equiangular fitting method or a parabolic fitting method), motion detection with sub-pixel accuracy is performed.

次に、本実施形態におけるR画像生成部1102、G画像生成部1104およびB画像生成部1106での処理内容の、R画像fR、G画像fGあるいはB画像fBに含まれる画像の動きの分布に関する滑らかさの拘束について、R画像生成部1102を例にとり説明する。 Next, the movement of the image included in the R image f R , the G image f G, or the B image f B of the processing contents in the R image generation unit 1102, the G image generation unit 1104, and the B image generation unit 1106 in the present embodiment. The smoothness constraint relating to the distribution of the image will be described using the R image generation unit 1102 as an example.

R画像fRに含まれる画像の動きの分布に関する滑らかさの拘束としては、下記(数43)または(数44)を用いる。

Figure 2013223210
Figure 2013223210
ここで、uは動画像fRから得られる各画素についての動きベクトルのx方向の成分を要素とする縦ベクトル、vは動画像fから得られる各画素についての動きベクトルのy方向の成分を要素とする縦ベクトルである。 The smoothness constraint on the distribution of motion images contained in the R image f R, using the following equation (43) or equation (44).
Figure 2013223210
Figure 2013223210
Here, u is a vertical vector whose element is the x-direction component of the motion vector for each pixel obtained from the moving image f R , and v is the y-direction component of the motion vector for each pixel obtained from the moving image f. A vertical vector as an element.

Rから得られる画像の動きの分布に関する滑らかさの拘束としては、(数43)、(数44)に限らず、例えば(数45)、(数46)に示す1階または2階の方向微分としてもよい。

Figure 2013223210
Figure 2013223210
The smoothness constraint on the distribution of image motion obtained from f R is not limited to (Equation 43) and (Equation 44), but for example, the direction of the first or second floor shown in (Equation 45) or (Equation 46). It is good also as differentiation.
Figure 2013223210
Figure 2013223210

さらに、(数47)〜(数50)に示すように、(数43)〜(数46)の拘束条件を、fRの画素値のこう配に応じて適応的に変化させてもよい。これにより、画像内のエッジ(輝度変化が不連続な境界)部分に対する滑らかさ拘束の影響を、画像の平坦部分と比べて小さくすることができるため、画像内のエッジをより鮮明に再現することができる。

Figure 2013223210
Figure 2013223210
Figure 2013223210
Figure 2013223210
ここで、w(x,y)は、fRの画素値のこう配に関する重み関数と同一であり、(数15)に示す画素値のこう配の成分のべき乗和、または、(数16)に示す方向微分のべき乗によって定義される。 Further, as shown in (Equation 47) to (Equation 50), the constraint conditions of (Equation 43) to (Equation 46) may be adaptively changed according to the gradient of the pixel value of f R. As a result, the effect of smoothness constraint on the edge (border where the luminance change is discontinuous) in the image can be reduced compared to the flat part of the image, so that the edge in the image can be reproduced more clearly. Can do.
Figure 2013223210
Figure 2013223210
Figure 2013223210
Figure 2013223210
Here, w (x, y) is the same as the weight function related to the gradient of the pixel value of f R , and is represented by the power sum of the gradient component of the pixel value shown in (Equation 15) or (Equation 16). Defined by the power of the directional derivative.

このような重み関数を導入することにより、fRの動き情報が必要以上に平滑化されることを防ぐことができ、その結果、新たに生成される画像fRが必要以上に平滑化されることを防ぐことができる。 By introducing such a weight function, it is possible to prevent the motion information of f R from being smoothed more than necessary, and as a result, the newly generated image f R is smoothed more than necessary. Can be prevented.

(数43)〜(数50)に示したような、画像fRから得られる動きの分布に関する滑らかさの拘束を導入して(数1)を解く問題に関しては、fRについての滑らかさの拘束を用いる場合と比較して複雑な計算が必要となる。新たに生成すべき画像fRと動き情報(u,v)が相互に依存するためである。 (Number 43) - as shown in equation (50), with respect to the problems solved by introducing the smoothness constraint on the distribution of motion obtained from the image f R (Formula 1), the smoothness of f R Complicated calculation is required as compared with the case of using constraints. This is because the image f R to be newly generated and the motion information (u, v) depend on each other.

この問題に対しては、公知の解法、例えばEMアルゴリズム等を用いた変分問題の解法を用いて計算することができる。その際、繰り返し計算に、新たに生成すべき画像fRと動き情報(u,v)の初期値が必要になる。 This problem can be calculated using a known solution, for example, a variational solution using an EM algorithm or the like. At that time, the image f R to be newly generated and the initial value of the motion information (u, v) are necessary for the repeated calculation.

Rの初期値としては、入力画像の補間拡大画像を用いればよい。一方、動き情報(u,v)としては、動き検出部201において(数41)ないし(数43)を計算して求めた動き情報を用いる。その結果、カラー画像処理部105が、上述のごとく、(数43)〜(数50)に示したような、画像fから得られる動きの分布に関する滑らかさの拘束を導入して(数1)を解くことにより、処理結果の画質を向上させることができる。 The initial value of f R, may be used interpolated and enlarged image of the input image. On the other hand, as the motion information (u, v), motion information obtained by calculating (Equation 41) to (Equation 43) in the motion detection unit 201 is used. As a result, as described above, the color image processing unit 105 introduces the constraint on smoothness regarding the motion distribution obtained from the image f as shown in (Equation 43) to (Equation 50) (Equation 1). By solving the above, the image quality of the processing result can be improved.

R画像生成部1102における処理は、第1実施形態の(数11)〜(数16)、(数19)、(数20)に示した画素値の分布に関する滑らかさの拘束のいずれかと、(数43)〜(数50)に示した動きの分布に関する滑らかさの拘束のいずれかの両方を組み合わせて、(数51)のように同時に用いることができる。

Figure 2013223210
ここで、QfはfRの画素値のこう配に関する滑らかさの拘束、QuvはfRから得られる画像の動きの分布に関する滑らかさの拘束、λ1およびλ2はQfとQuvの拘束に関する重みである。 The processing in the R image generation unit 1102 includes any one of the constraints on smoothness relating to the distribution of pixel values shown in (Equation 11) to (Equation 16), (Equation 19), and (Equation 20) of the first embodiment. Any one of the constraints on smoothness relating to the motion distribution shown in (Equation 43) to (Equation 50) can be combined and used simultaneously as in (Equation 51).
Figure 2013223210
Where Q f is the smoothness constraint on the gradient of the pixel value of f R , Q uv is the smoothness constraint on the motion distribution of the image obtained from f R , and λ 1 and λ 2 are the Q f and Q uv It is a weight related to restraint.

また、動きに関する拘束は、(数43)〜(数50)に示した動きベクトルの分布の滑らかさに関するものに限らず、対応点間の残差(動きベクトルの始点と終点間における画素値の差)を評価値として、これを小さくするようにしてもよい。対応点間の残差は、fRを関数fR(x,y,t)として表すと、(数52)のように表すことができる。

Figure 2013223210
In addition, the movement-related constraints are not limited to those relating to the smoothness of the motion vector distribution shown in (Equation 43) to (Equation 50), but the residual between corresponding points (the pixel value between the start point and the end point of the motion vector). You may make it make this small by making an evaluation value into (difference). The residual between corresponding points can be expressed as (Equation 52) when f R is expressed as a function f R (x, y, t).
Figure 2013223210

Rをベクトルとして、画像全体について考えると、各画素における残差は下記(数53)に示すようにベクトル表現することができる。

Figure 2013223210
Considering the entire image with f R as a vector, the residual in each pixel can be expressed as a vector as shown in (Formula 53) below.
Figure 2013223210

残差の平方和は下記(数53)に示すように表すことができる。

Figure 2013223210
The sum of squares of the residuals can be expressed as shown below (Formula 53).
Figure 2013223210

(数53)、(数54)において、HmはベクトルfRの要素数(時空間の総画素数)×fRの要素数の行列である。Hmでは、各行において、動きベクトルの視点と終点に相当する要素だけが0でない値を持ち、それ以外の要素は0の値を持つ。動きベクトルが整数精度の場合、視点と終点に相当する要素が、それぞれ、−1と1の値を持ち、他の要素は0である。 In (Expression 53) and (Expression 54), H m is a matrix of the number of elements of the vector f R (the total number of pixels in space-time) × f R. In H m , in each row, only elements corresponding to the viewpoint and end point of the motion vector have non-zero values, and other elements have zero values. When the motion vector has integer precision, the elements corresponding to the viewpoint and the end point have values of −1 and 1, respectively, and the other elements are 0.

画素値の分布に関する滑らかさの拘束と、画像の動きの分布に関する滑らかさの拘束の両方を導入して(数1)を解く問題も、公知の解法(例えばEMアルゴリズム等を用いた変分問題の解法)を利用することができる。   The problem of solving (Equation 1) by introducing both the smoothness constraint relating to the distribution of pixel values and the smoothness constraint relating to the distribution of image motion is also a variational problem using a known solution (for example, an EM algorithm). Can be used.

(数54)をQmとおき、(数51)と組み合わせて拘束条件を(数55)のようにしてもよい。

Figure 2013223210
ここで、λ3は拘束条件Qmに関する重みである。 (Equation 54) may be set as Q m and the constraint condition may be changed to (Equation 55) in combination with (Equation 51).
Figure 2013223210
Here, λ 3 is a weight related to the constraint condition Q m .

本実施形態において、図11中の画像分離部1101によって得られるR短時間画像、G短時間画像およびB短時間画像から動き検出を行う場合、例えば線形補間等の補間拡大処理により各色成分画像の欠損部分を補った上で行えばよい。   In this embodiment, when motion detection is performed from the R short-time image, the G short-time image, and the B short-time image obtained by the image separation unit 1101 in FIG. 11, for example, each color component image is subjected to interpolation enlargement processing such as linear interpolation. What is necessary is just to make up for the missing part.

なお、本実施形態における動き検出では、図11に示すように、R、G、Bそれぞれの色成分の短時間露出画像を補間拡大した画像から、それぞれの色に対して別々に動き情報を求めてもよいし、例えばR、G、Bすべての色成分の短時間露出画像から輝度画像を生成し、輝度画像上で全色成分の動き情報を一度に求め、それぞれの色成分の処理に用いてもよい。この場合は、例えば図13のように、画像分離部1301によってRGB各色成分に分離する前に動き検出を行い、そこで求められた動き情報を各色成分の画像生成部に供給することができる。   In the motion detection in this embodiment, as shown in FIG. 11, motion information is obtained separately for each color from an image obtained by interpolating and enlarging a short-time exposure image of each of R, G, and B color components. Alternatively, for example, a luminance image is generated from a short-time exposure image of all the R, G, and B color components, and motion information of all the color components is obtained at once on the luminance image and used for processing each color component. May be. In this case, for example, as shown in FIG. 13, motion detection is performed before the image separation unit 1301 separates the RGB color components, and the motion information obtained there can be supplied to the image generation unit for each color component.

動きベクトルがサブピクセル精度の場合には、動きベクトルのサブピクセル成分の値に応じて、終点近傍の複数の画素に相当する複数の要素が値を持つことになる。
以上述べた方法により、R動き検出部1103、G動き検出部1105およびB動き検出部1107、あるいは動き検出部1302によって、RGBの短時間露出の動画像から抽出した動き情報を用いることにより、ベイヤ配列の撮像素子によって撮像されたRGBの動画像をカラー画像処理部105で高時空間解像度化することができる。
When the motion vector has sub-pixel accuracy, a plurality of elements corresponding to a plurality of pixels near the end point have values according to the value of the sub-pixel component of the motion vector.
By using the motion information extracted from the RGB short-time exposure moving image by the R motion detecting unit 1103, the G motion detecting unit 1105 and the B motion detecting unit 1107, or the motion detecting unit 1302 by the method described above, The color image processing unit 105 can increase the spatial and temporal resolution of RGB moving images captured by the array of image sensors.

(実施形態3)
本発明にかかる撮像処理装置にかかる画像処理は、前記実施形態1および2に記載したような、RGBの色成分ごとに別個に処理する方式に限らず、RGB全色成分を一度に処理するような構成にしてもかまわない。
(Embodiment 3)
The image processing according to the image pickup processing apparatus according to the present invention is not limited to the method of separately processing each RGB color component as described in the first and second embodiments, but may process all RGB color components at once. Any configuration may be used.

本実施形態においては、このような3色成分を同時に処理するような場合の撮像処理装置の構成について述べる。   In the present embodiment, the configuration of an imaging processing apparatus when processing such three color components simultaneously will be described.

本実施形態にかかる撮像処理装置で行う画像処理は、連立方程式を解くという点で前記実施形態1および2と同じである(例えば実施形態1における(数4))。それらの例と異なる点は、本実施形態の構成では実施形態1および2で用いていた画像分離部401あるいは1101、1301を有しないこと、サンプリング過程を記述する式の形が異なること、および空間的な画素値の滑らかさ拘束の形状が異なることである。なお、本実施形態においても、前記第2実施形態のように、画像中の動きの情報を用いることができる。このとき、各画素の動きの検出は、図13の構成のときに行う方法と同一の方法で実現できる。   Image processing performed by the imaging processing apparatus according to the present embodiment is the same as that of the first and second embodiments in that simultaneous equations are solved (for example, (Equation 4) in the first embodiment). The difference from these examples is that the configuration of the present embodiment does not have the image separation unit 401 or 1101, 1301 used in the first and second embodiments, the form of the expression describing the sampling process is different, and the space The shape of the smoothness constraint of typical pixel values is different. In this embodiment as well, information about movement in an image can be used as in the second embodiment. At this time, the detection of the movement of each pixel can be realized by the same method as that used in the configuration of FIG.

図14は、図3に示す画素配列の左半分の画素群を取り出した図であり、いま画像処理によりこれらの画素の値を求めることを考える。本実施形態においては、図中に示される4×4画素の値を一度に求める。このとき、求めるべきRGB画像をfとすると、fは次式のように表される。

Figure 2013223210
FIG. 14 is a diagram in which the left half pixel group of the pixel array shown in FIG. 3 is extracted, and it is now considered that the values of these pixels are obtained by image processing. In the present embodiment, the value of 4 × 4 pixels shown in the figure is obtained at a time. At this time, if the RGB image to be obtained is f, f is expressed as follows.
Figure 2013223210

上記(数56)のうち、長時間露光を求めるために必要なのは、位置(1,1)にあるR111およびR112、位置(2,1)にあるG211およびG212、位置(4,1)にあるG411およびG412、位置(2,2)にあるB221およびG222、位置(3,2)にあるG231およびG232、位置(3,3)にあるR331およびR332、位置(4,3)にあるG431およびG432、位置(4,4)にあるB441およびG442である。そこで、それらの画素値のみを抽出するための行列を以下のように定義することができる。

Figure 2013223210
Of the above (Equation 56), in order to obtain long exposure, R 111 and R 112 at position (1, 1), G 211 and G 212 at position (2, 1), position (4, 4) are required. G 411 and G 412 in 1), B 221 and G 222 in position (2,2), G 231 and G 232 in position (3,2), R 331 and R in position (3,3) 332 , G 431 and G 432 at position (4, 3), B 441 and G 442 at position (4, 4). Therefore, a matrix for extracting only those pixel values can be defined as follows.
Figure 2013223210

これによれば、長時間露光画像の撮像過程は以下のように定式化される。

Figure 2013223210
According to this, the imaging process of the long exposure image is formulated as follows.
Figure 2013223210

次に、短時間露光のサンプリング過程H2の定式化について、図14に示す画素配列の場合について考える。 Next, regarding the formulation of the sampling process H 2 for short-time exposure, consider the case of the pixel array shown in FIG.

得られるRGB画像fの要素は、(数56)の通りであり、このうち短時間露光を求めるために必要なのは、位置(3,1)についてはR311およびR312、位置(1,2)についてはG121およびG122、位置(3,2)についてはG321およびG322、位置(4,2)についてはB421およびB422、位置(1,3)についてはR131およびR132、位置(4,1)についてはG141およびG142、位置(2,4)についてはG241およびG242、位置(3,4)についてはG341およびG342である。そこで、それらの画素値のみを抽出するための行列を以下のように定義することができる。

Figure 2013223210
Elements of the obtained RGB image f are as shown in (Equation 56). Among them, R 311 and R 312 are required for the position (3, 1), and positions (1, 2) are required for obtaining the short-time exposure. G 121 and G 122 for position (3, 2), G 321 and G 322 for position (4, 2), B 421 and B 422 for position (4, 2), R 131 and R 132 for position (1, 3), G 141 and G 142 for position (4,1), G 241 and G 242 for position (2,4), and G 341 and G 342 for position (3,4). Therefore, a matrix for extracting only those pixel values can be defined as follows.
Figure 2013223210

(数59)の第1〜16列が時刻t=1に関し、第17〜32列が時刻t=2に関している。これらによれば、短時間露光画素の撮像過程は以下のように定式化される。

Figure 2013223210
The 1st to 16th columns of (Equation 59) relate to the time t = 1, and the 17th to 32nd columns relate to the time t = 2. According to these, the imaging process of the short-time exposure pixel is formulated as follows.
Figure 2013223210

本実施形態においても、各画素値を求める際に空間的な画素値の滑らかさの拘束条件を適用することができる。本実施形態の構成では、RGBすべての色成分の画素値を一度に求めるが、このときの空間的滑らかさ拘束は、前記第1実施形態のような、各色成分ごとに個別に処理する方法(第1実施形態における(数20)、(数21)、(数27)、(数28)、(数34)、(数35))でも可能であるし、RGBの3色が張る空間から別の3次元空間に変換し、その空間上で適用することも可能である。以下、RGB空間を他の空間に変換したうえで空間的滑らかさ拘束を適用する場合について説明する。   Also in the present embodiment, when obtaining each pixel value, it is possible to apply a spatial smoothness constraint condition of pixel values. In the configuration of the present embodiment, the pixel values of all the color components of RGB are obtained at once, but the spatial smoothness constraint at this time is a method of processing each color component individually as in the first embodiment ( (Equation 20), (Equation 21), (Equation 27), (Equation 28), (Equation 34), (Equation 35) in the first embodiment is also possible, and it is different from the space where three colors of RGB are stretched. It is also possible to convert to a three-dimensional space and apply on that space. Hereinafter, a case where the spatial smoothness constraint is applied after converting the RGB space to another space will be described.

RGB画像fの画素値の分布に関する滑らかさの拘束としては、(数61)もしくは(数62)の拘束式を用いる。

Figure 2013223210
Figure 2013223210
As the smoothness constraint regarding the distribution of the pixel values of the RGB image f, the constraint equation of (Equation 61) or (Equation 62) is used.
Figure 2013223210
Figure 2013223210

この拘束条件Qは、評価関数Jの一部を構成する。評価関数Jは、第1実施形態の(数1)と同様の形であるが、RGB全色の画素値を対象とするため、(数1)における評価関数JRをJと記す。 This constraint condition Q constitutes a part of the evaluation function J. The evaluation function J has the same form as in (Equation 1) of the first embodiment, but since the pixel values of all the RGB colors are targeted, the evaluation function JR in (Equation 1) is written as J.

なお、(数61)、(数62)で||はベクトルのノルムを表す。べき指数mの値は、前記第1実施形態での説明と同様に、演算量の観点から1または2が望ましい。ここで、Ciは以下の式でfの要素のR,G,B値を変換したものである。

Figure 2013223210
In (Equation 61) and (Equation 62), || represents the norm of the vector. The value of the power index m is preferably 1 or 2 from the viewpoint of the amount of computation, as in the description in the first embodiment. Here, C i is obtained by converting the R, G, and B values of the element of f by the following equation.
Figure 2013223210

(数63)において、C1、C2、C3を一般的な画像におけるRGBの画素値の分布の第1主成分から、第3主成分にすることにより、滑らかさ拘束についての正則化パラメータの調整をRGB空間で行う場合よりも容易にできる。すなわち、C1成分は輝度にほぼ等しく、C2、C3成分は2つの色成分とみなせ、個別にλciを調整することによって、新たに生成される画像に対する滑らかさ拘束の各項の影響を制御できる。λC1からλC3の値は、3板撮影等で全画素読み出しした画素値が事前に用意できる場合には、生成画像のPSNR(Peak Signal to Noise Ratio)が最良となるように決めればよい。 In (Equation 63), C 1 , C 2 , and C 3 are changed from the first principal component to the third principal component of the RGB pixel value distribution in the general image, so that the regularization parameter for the smoothness constraint is obtained. This adjustment can be made easier than in the RGB space. That is, the C 1 component is almost equal to the luminance, the C 2 and C 3 components can be regarded as two color components, and the influence of each term of the smoothness constraint on the newly generated image by adjusting λ ci individually. Can be controlled. The values of λ C1 to λ C3 may be determined so that the PSNR (Peak Signal to Noise Ratio) of the generated image is the best when the pixel values read out from all pixels by three-plate photography or the like can be prepared in advance.

なお、PSNRは(数64)で定義される。

Figure 2013223210
ここで、fmaxは画素値の最大値(例えば、8ビット時255、10ビット時1023)であり、σは正解画像と生成画像との差の標準偏差である。 PSNR is defined by (Equation 64).
Figure 2013223210
Here, f max is the maximum pixel value (for example, 255 for 8 bits and 1023 for 10 bits), and σ is the standard deviation of the difference between the correct image and the generated image.

一方、そうでない場合には、上記の値をもとにマニュアル操作で新たに生成した画質をみながらλciを決めればよい。 On the other hand, in other cases, λ ci may be determined while looking at the image quality newly generated by manual operation based on the above values.

なお、上記の偏微分値∂Ci/∂x、∂Ci/∂y、∂2i/∂x2、∂2i/∂y2は、着目画素近傍の画素値による差分展開により、例えば(数65)により近似計算できる。

Figure 2013223210
The partial differential values ∂C i / ∂x, ∂C i / ∂y, ∂ 2 C i / ∂x 2 , and ∂ 2 C i / ∂y 2 are obtained by differential development based on pixel values in the vicinity of the target pixel. For example, approximate calculation can be performed by (Equation 65).
Figure 2013223210

差分展開は上記(数65)に限らず、例えば(数66)の様に、近傍の他の画素を参照するようにしてもよい。

Figure 2013223210
Difference expansion is not limited to the above (Equation 65), and other pixels in the vicinity may be referred to, for example, as shown in (Equation 66).
Figure 2013223210

(数66)は(数65)による計算値に対して、近傍で平均化することになる。これにより、空間解像度は低下するが、ノイズの影響を受けにくくできる。さらに、両者の中間的なものとして、0≦α≦1の範囲のαで重み付けをして、以下の式を採用してもよい。

Figure 2013223210
(Equation 66) is averaged in the vicinity of the calculated value of (Equation 65). Thereby, although spatial resolution falls, it can make it hard to receive the influence of a noise. Furthermore, as an intermediate between them, weighting may be performed with α in a range of 0 ≦ α ≦ 1, and the following formula may be employed.
Figure 2013223210

差分展開の計算方法は、処理結果の画質がより改善されるようにノイズレベルに応じてαを予め決めて行ってもよいし、もしくは、回路規模や演算量を少しでも小さくするために、(数65)を用いてもよい。   The difference expansion calculation method may be performed by predetermining α according to the noise level so that the image quality of the processing result is further improved, or in order to reduce the circuit scale and the calculation amount as much as possible ( Equation 65) may be used.

なお、画像fの画素値の分布に関する滑らかさの拘束としては、(数61)、(数62)に限らず、例えば、(数68)に示す2階の方向微分の絶対値のm乗を用いても良い。

Figure 2013223210
ここで、ベクトルnminおよび角度θは1階の方向微分の2乗が最小になる方向であり、下記(数69)によって与えられる。
Figure 2013223210
Note that the smoothness constraint regarding the distribution of the pixel values of the image f is not limited to (Equation 61) and (Equation 62). For example, the absolute value of the absolute value of the second-order directional differentiation shown in (Equation 68) is expressed as follows. It may be used.
Figure 2013223210
Here, the vector n min and the angle θ are directions in which the square of the first-order directional differential is minimized, and are given by the following (Equation 69).
Figure 2013223210

さらに、画像fの画素値の分布に関する滑らかさの拘束としては、下記(数70)から(数72)のいずれかのQを用いて、fの画素値のこう配に応じて拘束条件を適応的に変化させてもよい。なお、こう配とは、画像fの画素値の分布関数fを位置について1階微分することによって得られる。

Figure 2013223210
Figure 2013223210
Figure 2013223210
Furthermore, as a constraint of smoothness regarding the distribution of the pixel values of the image f, any one of the following (Equation 70) to (Equation 72) Q is used, and the constraint condition is adaptive according to the gradient of the pixel values of f. It may be changed to. The gradient is obtained by first-order differentiation of the distribution function f of the pixel value of the image f with respect to the position.
Figure 2013223210
Figure 2013223210
Figure 2013223210

(数70)から(数72)において、w(x,y)は画素値のこう配の関数であり、拘束条件に対する重み関数である。例えば、下記(数73)に示す画素値のこう配成分のべき乗和が、大きい場合にはw(x,y)の値が小さく、逆の場合にはw(x,y)の値が大きくなるようにすると、fのこう配に応じて拘束条件を適応的に変化できる。

Figure 2013223210
In (Equation 70) to (Equation 72), w (x, y) is a gradient function of the pixel value, and is a weighting function for the constraint condition. For example, when the power sum of the gradient component of the pixel value shown in (Equation 73) below is large, the value of w (x, y) is small, and in the opposite case, the value of w (x, y) is large. Then, the constraint condition can be adaptively changed according to the gradient of f.
Figure 2013223210

このような重み関数を導入することにより、新たに生成される画像fが必要以上に平滑化されることを防ぐことができる。   By introducing such a weight function, it is possible to prevent the newly generated image f from being smoothed more than necessary.

また、(数73)に示す輝度こう配の成分の2乗和の代わりに、(数74)に示す方向微分の、べき乗の大小によって、重み関数w(x,y)を定義してもよい。

Figure 2013223210
ここで、ベクトルnmaxおよび角度θは方向微分が最大になる方向であり、下記(数75)によって与えられる。
Figure 2013223210
The weight function w (x, y) may be defined by the magnitude of the power of the directional differentiation shown in (Expression 74) instead of the square sum of the components of the luminance gradient shown in (Expression 73).
Figure 2013223210
Here, the vector n max and the angle θ are directions in which the directional differential is maximized, and are given by the following (Equation 75).
Figure 2013223210

(数61)、(数62)、(数66)〜(数72)に示したような、動画像fの画素値の分布に関する滑らかさの拘束を導入する場合は、前記第1実施形態と同様に、公知の解法、例えば有限要素法等の変分問題の解法を用いて計算することができる。   When introducing the constraint of smoothness regarding the distribution of pixel values of the moving image f as shown in (Equation 61), (Equation 62), and (Equation 66) to (Equation 72), Similarly, it can be calculated using a known solution, for example, a solution to a variational problem such as a finite element method.

本実施形態により、(数63)に示すように各色成分間の相関を画像処理に導入することができ、特に正の色相関が存在する被写体に関して、より高画質の動きぶれの少ない画像を推定し生成することができる。   According to the present embodiment, correlation between each color component can be introduced into the image processing as shown in (Equation 63), and an image with higher image quality and less motion blur is estimated particularly for a subject having a positive color correlation. Can be generated.

上述したように、本発明の実施形態における撮像処理装置によれば、所定のフレームレートに対応する露出時間で露光して得られた画素信号が読み出される短時間露出画像と比較し、前記短時間露出画像よりもフレームレートが低くより長い露出時間で読み出す画素を配置することにより、撮像時に蓄積する光量を増加し、より高いS/Nの画像を得ることができる。また、すべての画素を低フレームレート・長時間露出で読み出した画像の動きぶれ除去処理を行う場合に比べ、短時間露出の画素を配置し、読み出し信号に対して画像復元処理を行うことにより、被写体の動きに起因する色にじみを抑制した画像信号を得ることができる。また、滑らかさ拘束を水平の一方向あるいは高々2ラインにまたがるジグザグ状に適用する実施形態では、滑らかさ拘束演算に関係する水平画素列の数、すなわち滑らかさ拘束の演算時に保持しておくべき画素信号データ量を減らし、演算の際に必要となるメモリ量を節約できる。   As described above, according to the imaging processing apparatus of the embodiment of the present invention, the short time exposure image is compared with the short time exposure image in which the pixel signal obtained by exposure with the exposure time corresponding to the predetermined frame rate is read. By arranging pixels to be read with a lower frame rate and longer exposure time than the exposure image, the amount of light accumulated during imaging can be increased, and an image with a higher S / N can be obtained. Also, compared to the case of performing motion blur removal processing for images read out at a low frame rate and long exposure for all pixels, by arranging pixels with short exposure and performing image restoration processing on the readout signal, It is possible to obtain an image signal in which color blur caused by the movement of the subject is suppressed. In the embodiment in which the smoothness constraint is applied in a horizontal direction or zigzag extending across at most two lines, the number of horizontal pixel columns related to the smoothness constraint calculation, that is, the smoothness constraint should be retained. The amount of pixel signal data can be reduced, and the amount of memory required for computation can be saved.

本発明の撮像装置および処理装置は、低光量時の高解像度撮影や小型画素による撮像に有用である。また、本発明は、画像処理プログラムとしても適用が可能である。画像処理プログラムは、例えばコンピュータに画像処理方法のステップを実行させるプログラムであり、例えば一時的でなく有形の記録媒体に記録され得る。   The imaging apparatus and processing apparatus of the present invention are useful for high-resolution imaging at low light amounts and imaging with small pixels. The present invention can also be applied as an image processing program. The image processing program is a program for causing a computer to execute the steps of the image processing method, for example, and may be recorded on a tangible recording medium instead of temporarily.

100 撮像処理装置
101 光学系
102 単板カラー撮像素子
103 読み出し制御部
104 制御部
105 画像処理部
401 画像分離部
402 R画像処理部
403 G画像処理部
404 B画像処理部
DESCRIPTION OF SYMBOLS 100 Image pick-up processing apparatus 101 Optical system 102 Single plate color image sensor 103 Reading control part 104 Control part 105 Image processing part 401 Image separation part 402 R image processing part 403 G image processing part 404 B image processing part

Claims (14)

2個の第1色画素、1個の第2色画素、および1個の第3色画素がベイヤ配列を形成するように配列された第1画素ユニットと、2個の第1色画素、1個の第2色画素、および1個の第3色画素がベイヤ配列を形成するように配列された第2画素ユニットとが行および列状に交互に配列された単板カラー撮像素子であって、
前記第1画素ユニットにおける前記2個の第1色画素の一方、前記第2色画素および前記第3色画素、ならびに前記第2画素ユニットにおける前記2個の第1色画素の一方であって前記第1画素ユニットにおける前記第1色画素の前記一方と同じ行に位置する第1色画素からは画素値を第1のフレームレートで読み出し、前記第1画素ユニットにおける前記2個の第1色画素の他方、ならびに前記第2画素ユニットにおける前記2個の第1色画素の他方、前記第2色画素および前記第3色画素からは画素値を、前記第1のフレームレートよりも低い第2のフレームレートで読み出することができる、単板カラー撮像素子と、
前記第1のフレームレートで読み出された画素値と、前記第2のフレームレートで読み出された画素値とに基づいて、前記第1のフレームレートの新たな動画像を生成する画像処理部と、
を備える撮像処理装置。
A first pixel unit in which two first color pixels, one second color pixel, and one third color pixel are arranged so as to form a Bayer array, two first color pixels, A single-plate color imaging device in which a plurality of second color pixels and a second pixel unit in which one third color pixel is arranged so as to form a Bayer array are alternately arranged in rows and columns. ,
One of the two first color pixels in the first pixel unit, the second color pixel and the third color pixel, and one of the two first color pixels in the second pixel unit, A pixel value is read at a first frame rate from a first color pixel located in the same row as the one of the first color pixels in the first pixel unit, and the two first color pixels in the first pixel unit are read out. And the second color pixel from the other of the two first color pixels in the second pixel unit, the second color pixel and the third color pixel have a pixel value lower than the first frame rate. A single-plate color image sensor that can be read at a frame rate;
An image processing unit that generates a new moving image at the first frame rate based on the pixel value read at the first frame rate and the pixel value read at the second frame rate. When,
An imaging processing apparatus comprising:
前記画像処理部は、
前記第1色画素から前記第1のフレームレートで読み出された画素値と、前記第1色画素から前記第2のフレームレートで読み出された画素値とに基づいて、第1のフレームレートの第1色動画像を生成する第1の単色画像処理部と、
前記第2色画素から前記第1のフレームレートで読み出された画素値と、前記第2色画素から前記第2のフレームレートで読み出された画素値とに基づいて、前記第1のフレームレートの第2色動画像を生成する第2の単色画像処理部と、
前記第3色画素から前記第1のフレームレートで読み出された画素値と、前記第3色画素から前記第2のフレームレートで読み出された画素値とに基づいて、前記第1のフレームレートの第3色動画像を生成する第3の単色画像処理部と、
を備え、
前記第1、第2および第3動画像から前記カラー動画像を生成する、請求項1に記載の撮像処理装置。
The image processing unit
A first frame rate based on a pixel value read from the first color pixel at the first frame rate and a pixel value read from the first color pixel at the second frame rate. A first monochrome image processing unit for generating a first color moving image of
The first frame based on the pixel value read from the second color pixel at the first frame rate and the pixel value read from the second color pixel at the second frame rate. A second monochromatic image processing unit for generating a second color moving image of the rate;
Based on the pixel value read from the third color pixel at the first frame rate and the pixel value read from the third color pixel at the second frame rate, the first frame A third monochromatic image processing unit for generating a rate third color moving image;
With
The imaging processing apparatus according to claim 1, wherein the color moving image is generated from the first, second, and third moving images.
前記画像処理部は、
前記第1の単色画像処理部から出力された前記第1色動画像と、前記第2の単色画像処理部から出力された前記第2色動画像と、前記第3の単色画像処理部から出力された前記第3色動画像とを格納するメモリを備える、請求項2に記載の撮像処理装置。
The image processing unit
The first color moving image output from the first single color image processing unit, the second color moving image output from the second single color image processing unit, and the output from the third single color image processing unit The imaging processing apparatus according to claim 2, further comprising a memory that stores the third color moving image that has been recorded.
前記画像処理部は、
前記第1のフレームレートで読み出された画素値に基づいて得られた前記第1の色成分の動画像、前記第2の色成分の動画像または前記第3の色成分の動画像と、前記新たな動画像を前記第1のフレームレートでサンプリングして得られた動画像との第1の差と、
前記第2のフレームレートで読み出された画素値に基づいて得られた前記第1の色成分の動画像、前記第2の色成分の動画像または前記第3の色成分の動画像と、前記新たな動画像を前記第2のフレームレートでサンプリングして得られた動画像との第2の差と、
前記新たな動画像における画素値の分布の変化が少なくなるほど、または前記新たな動画像における前記画素値の変化が一定になるほど、小さくなる拘束条件項と、
を含む評価式を設定し、
前記評価式を最小化する動画像を、前記新たな動画像として求める、請求項1または2に記載の撮像処理装置。
The image processing unit
A moving image of the first color component, a moving image of the second color component, or a moving image of the third color component obtained based on the pixel value read at the first frame rate; A first difference from a moving image obtained by sampling the new moving image at the first frame rate;
A moving image of the first color component, a moving image of the second color component, or a moving image of the third color component obtained based on a pixel value read at the second frame rate; A second difference from a moving image obtained by sampling the new moving image at the second frame rate;
A constraint condition term that decreases as the change in the distribution of pixel values in the new moving image decreases or as the change in the pixel values in the new moving image becomes constant;
Set an evaluation formula containing
The imaging processing apparatus according to claim 1, wherein a moving image that minimizes the evaluation formula is obtained as the new moving image.
前記画像処理部は、前記拘束条件項を、前記第1色画素、第2色画素および第3色画素の各々について設定する、請求項4に記載の撮像処理装置。   The imaging processing apparatus according to claim 4, wherein the image processing unit sets the constraint condition term for each of the first color pixel, the second color pixel, and the third color pixel. 前記画像処理部は、前記第1色画素についての前記拘束条件項を、前記単板カラー固体撮像素子の2行における画素値を用いて算出する、請求項5に記載の撮像処理装置。   The imaging processing apparatus according to claim 5, wherein the image processing unit calculates the constraint condition term for the first color pixel using pixel values in two rows of the single-plate color solid-state imaging device. 前記画像処理部は、前記第2色画素および前記第3色画素についての前記拘束条件項を、前記単板カラー固体撮像素子の1行および/または1列における画素値を用いて算出する、請求項5または6に記載の撮像処理装置。   The image processing unit calculates the constraint condition term for the second color pixel and the third color pixel using pixel values in one row and / or one column of the single-plate color solid-state imaging device. Item 7. The imaging processing apparatus according to Item 5 or 6. 前記画像処理部は、
前記評価式は、前記第1の差、第2の差、および拘束条件項の各々に乗算された重み係数を含む、請求項1に記載の撮像処理装置。
The image processing unit
The imaging processing apparatus according to claim 1, wherein the evaluation formula includes a weighting factor multiplied by each of the first difference, the second difference, and the constraint condition term.
前記第1色画素、第2色画素および第3色画素は、それぞれ、緑色画素、赤色画素および青色画素である、請求項1から8のいずれかに記載の単板カラー固体撮像素子。   The single-plate color solid-state imaging device according to any one of claims 1 to 8, wherein the first color pixel, the second color pixel, and the third color pixel are a green pixel, a red pixel, and a blue pixel, respectively. 前記画像処理部は、
前記第1のフレームレートで読み出された画素値に基づいて得られた前記第1色成分の動画像、前記第2色成分の動画像または前記第3色成分の動画像を利用して、前記被写体の動きを検出する動き検出部と、
前記動きの検出結果を利用して前記新たな動画像の動きの分布に関する拘束条件項を設定し、前記動きの分布に関する拘束条件項を前記評価式に含める、請求項4から8のいずれかに記載の撮像処理装置。
The image processing unit
Using the moving image of the first color component, the moving image of the second color component, or the moving image of the third color component obtained based on the pixel value read at the first frame rate, A motion detector for detecting the motion of the subject;
The constraint condition term related to the motion distribution of the new moving image is set using the motion detection result, and the constraint condition term related to the motion distribution is included in the evaluation formula. The imaging processing apparatus described.
単板カラー撮像素子から得られる画素値に基づいて画像処理を行う画像処理方法であって、
前記単板カラー撮像素子は、
2個の第1色画素、1個の第2色画素、および1個の第3色画素がベイヤ配列を形成するように配列された第1画素ユニットと、2個の第1色画素、1個の第2色画素、および1個の第3色画素がベイヤ配列を形成するように配列された第2画素ユニットとが行および列状に交互に配列された単板カラー撮像素子であって、
前記第1画素ユニットにおける前記2個の第1色画素の一方、前記第2色画素および前記第3色画素、ならびに前記第2画素ユニットにおける前記2個の第1色画素の一方であって前記第1画素ユニットにおける前記第1色画素の前記一方と同じ行に位置する第1色画素からは画素値を第1のフレームレートで読み出し、前記第1画素ユニットにおける前記2個の第1色画素の他方、ならびに前記第2画素ユニットにおける前記2個の第1色画素の他方、前記第2色画素および前記第3色画素からは画素値を、前記第1のフレームレートよりも低い第2のフレームレートで読み出することができ、
前記単板カラー撮像素子によって前記第1のフレームレートで読み出された画素値と、前記第2のフレームレートで読み出された画素値とを取得するステップと、
前記第1のフレームレートで読み出された前記画素値と、前記第2のフレームレートで読み出された画素値とに基づいて、前記第1のフレームレートの新たな動画像を生成するステップと、
を含む画像処理方法。
An image processing method for performing image processing based on pixel values obtained from a single-plate color imaging device,
The single-plate color image sensor is
A first pixel unit in which two first color pixels, one second color pixel, and one third color pixel are arranged so as to form a Bayer array, two first color pixels, A single-plate color imaging device in which a plurality of second color pixels and a second pixel unit in which one third color pixel is arranged so as to form a Bayer array are alternately arranged in rows and columns. ,
One of the two first color pixels in the first pixel unit, the second color pixel and the third color pixel, and one of the two first color pixels in the second pixel unit, A pixel value is read at a first frame rate from a first color pixel located in the same row as the one of the first color pixels in the first pixel unit, and the two first color pixels in the first pixel unit are read out. And the second color pixel from the other of the two first color pixels in the second pixel unit, the second color pixel and the third color pixel have a pixel value lower than the first frame rate. Can be read at the frame rate,
Obtaining a pixel value read at the first frame rate by the single-plate color image sensor and a pixel value read at the second frame rate;
Generating a new moving image at the first frame rate based on the pixel value read at the first frame rate and the pixel value read at the second frame rate; ,
An image processing method including:
前記第1のフレームレートの新たな動画像を生成するステップは色ごとに実行し、その後、前記第1のフレームレートのカラー画像を生成するステップを含む、請求項11に記載の画像処理方法。   The image processing method according to claim 11, wherein the step of generating a new moving image at the first frame rate is executed for each color, and then includes a step of generating a color image at the first frame rate. 単板カラー撮像素子から得られる画素値に基づいて画像処理を行うための画像処理プログラムであって、
前記単板カラー撮像素子は、
2個の第1色画素、1個の第2色画素、および1個の第3色画素がベイヤ配列を形成するように配列された第1画素ユニットと、2個の第1色画素、1個の第2色画素、および1個の第3色画素がベイヤ配列を形成するように配列された第2画素ユニットとが行および列状に交互に配列された単板カラー撮像素子であって、
前記第1画素ユニットにおける前記2個の第1色画素の一方、前記第2色画素および前記第3色画素、ならびに前記第2画素ユニットにおける前記2個の第1色画素の一方であって前記第1画素ユニットにおける前記第1色画素の前記一方と同じ行に位置する第1色画素からは画素値を第1のフレームレートで読み出し、前記第1画素ユニットにおける前記2個の第1色画素の他方、ならびに前記第2画素ユニットにおける前記2個の第1色画素の他方、前記第2色画素および前記第3色画素からは画素値を、前記第1のフレームレートよりも低い第2のフレームレートで読み出することができ、
前記第1のフレームレートで読み出された前記画素値と、前記第2のフレームレートで読み出された画素値とに基づいて、コンピュータに、前記第1のフレームレートの新たな動画像を生成させる、画像処理プログラム。
An image processing program for performing image processing based on pixel values obtained from a single-plate color imaging device,
The single-plate color image sensor is
A first pixel unit in which two first color pixels, one second color pixel, and one third color pixel are arranged so as to form a Bayer array, two first color pixels, A single-plate color imaging device in which a plurality of second color pixels and a second pixel unit in which one third color pixel is arranged so as to form a Bayer array are alternately arranged in rows and columns. ,
One of the two first color pixels in the first pixel unit, the second color pixel and the third color pixel, and one of the two first color pixels in the second pixel unit, A pixel value is read at a first frame rate from a first color pixel located in the same row as the one of the first color pixels in the first pixel unit, and the two first color pixels in the first pixel unit are read out. And the second color pixel from the other of the two first color pixels in the second pixel unit, the second color pixel and the third color pixel have a pixel value lower than the first frame rate. Can be read at the frame rate,
Based on the pixel value read at the first frame rate and the pixel value read at the second frame rate, a new moving image at the first frame rate is generated on the computer. An image processing program.
前記第1のフレームレートの新たな動画像を生成するステップは色ごとに実行し、その後、前記第1のフレームレートのカラー画像を生成するステップを含む、請求項11に記載の画像処理プログラム。   The image processing program according to claim 11, wherein the step of generating a new moving image at the first frame rate is executed for each color, and then includes a step of generating a color image at the first frame rate.
JP2012095424A 2012-04-19 2012-04-19 Image pickup treatment apparatus, image pickup treatment method, and program Pending JP2013223210A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012095424A JP2013223210A (en) 2012-04-19 2012-04-19 Image pickup treatment apparatus, image pickup treatment method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012095424A JP2013223210A (en) 2012-04-19 2012-04-19 Image pickup treatment apparatus, image pickup treatment method, and program

Publications (1)

Publication Number Publication Date
JP2013223210A true JP2013223210A (en) 2013-10-28

Family

ID=49593865

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012095424A Pending JP2013223210A (en) 2012-04-19 2012-04-19 Image pickup treatment apparatus, image pickup treatment method, and program

Country Status (1)

Country Link
JP (1) JP2013223210A (en)

Similar Documents

Publication Publication Date Title
JP4598162B2 (en) Imaging processing device
US8068700B2 (en) Image processing apparatus, image processing method, and electronic appliance
JP5002738B2 (en) Image generation device
JP2013223209A (en) Image pickup processing device
JP5128726B1 (en) Solid-state imaging device and imaging apparatus including the device
CN101889452B (en) Image generation device and image generation method
KR102254994B1 (en) Image processing device, image processing method, electronic apparatus, and program
JP5133281B2 (en) Imaging processing device
EP2560375B1 (en) Image processing device, image capture device, program, and image processing method
JP6711612B2 (en) Image processing apparatus, image processing method, and imaging apparatus
US8018500B2 (en) Image picking-up processing device, image picking-up device, image processing method and computer program
JP5096645B1 (en) Image generating apparatus, image generating system, method, and program
JP2011015228A (en) Image processing device, image processing device, image processing method, and control program of image processor
JP2013223211A (en) Image pickup treatment apparatus, image pickup treatment method, and program
JP2013223210A (en) Image pickup treatment apparatus, image pickup treatment method, and program
JP2012216957A (en) Imaging processing device
JP2013223208A (en) Image pickup processing device
JP2013223207A (en) Image pickup processing device
JP4708180B2 (en) Image processing device
JP6818461B2 (en) Image pickup device, image processing device, image processing method and image processing program
JP2012099870A (en) Image pickup device and image pickup method
JP2012119852A (en) Imaging apparatus and imaging method