[go: up one dir, main page]

JP2008131580A - Imaging apparatus, and image processing method - Google Patents

Imaging apparatus, and image processing method Download PDF

Info

Publication number
JP2008131580A
JP2008131580A JP2006317399A JP2006317399A JP2008131580A JP 2008131580 A JP2008131580 A JP 2008131580A JP 2006317399 A JP2006317399 A JP 2006317399A JP 2006317399 A JP2006317399 A JP 2006317399A JP 2008131580 A JP2008131580 A JP 2008131580A
Authority
JP
Japan
Prior art keywords
pixel
image data
luminance
image
luminance component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006317399A
Other languages
Japanese (ja)
Inventor
Satoru Ito
覚 伊東
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2006317399A priority Critical patent/JP2008131580A/en
Priority to CN2007101675589A priority patent/CN101188773B/en
Publication of JP2008131580A publication Critical patent/JP2008131580A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Color Television Image Signal Generators (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To create an image in which both luminance noise and color noise are improved while suppressing deterioration in resolution even during high-sensitivity photography. <P>SOLUTION: An image in a full pixel read-out mode and an image in a pixel summation read-out mode which are substantially simultaneously obtained are separated into a luminance element and a color difference element to adaptively perform synthetic processing. Full pixel image data are characterized by high resolution, and pixel summation image data are characterized by a good luminance / color noise characteristic. The luminance element of the full pixel image data and the luminance element of the pixel summation image data are subjected to weighted average according to the luminance in order to reduce the luminance noise while suppressing deterioration in a resolution feeling. Accordingly, the luminance element image excellent in the noise characteristic and resolution is created. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、撮像装置に関し、特に画像データにおけるノイズを低減することが可能な撮像装置及びその画像処理方法に関する。   The present invention relates to an imaging apparatus, and more particularly, to an imaging apparatus capable of reducing noise in image data and an image processing method thereof.

デジタルスチルカメラをはじめとするあらゆる撮像装置において、低照度環境下での撮影手法として高感度撮影が用いられている。ここでの高感度撮影とは、撮影素子から出力された画像信号をアンプによって増幅することで、短時間に目標とする強度の画像信号を得る手法である。このような高感度撮影では、同じ露出の画像を撮像するにしても低感度撮影と比較して短時間の露光で撮影を終えることができるという利点がある一方、撮像素子に蓄積される電荷量の低下により後段で発生するノイズ成分に信号成分が埋没する上、アンプによる過度な信号増幅により著しく画質が劣化する問題点も有している。   High-sensitivity shooting is used as a shooting method in a low-light environment in all imaging apparatuses including a digital still camera. The high-sensitivity imaging here is a technique for obtaining an image signal having a target intensity in a short time by amplifying an image signal output from the imaging element by an amplifier. In such high-sensitivity shooting, there is an advantage that even if an image with the same exposure is captured, it is possible to finish shooting with a short exposure compared to low-sensitivity shooting, while the amount of charge accumulated in the image sensor In addition to the signal component being buried in the noise component generated in the subsequent stage due to the decrease in the image quality, there is a problem that the image quality is significantly deteriorated due to excessive signal amplification by the amplifier.

そのため、画素加算手段を備える撮像素子を用いることで、アンプによる無用なゲインアップを行わずにノイズを抑える手法が例えば特許文献1において提案されている。この手法は、画素加算手段によって撮像素子の隣接する複数の画素値(電荷)を加算して1つの画素の画素値とすることで信号成分を稼ぎ、アンプによる増幅を極力抑えて感度を上げる手法である。
特開2005−303519号公報
For this reason, for example, Patent Document 1 proposes a technique for suppressing noise without performing unnecessary gain increase by an amplifier by using an image pickup device including pixel addition means. In this method, a pixel addition means adds a plurality of pixel values (charges) adjacent to the image sensor to obtain a pixel value of one pixel, thereby obtaining a signal component and suppressing amplification by an amplifier as much as possible to increase sensitivity. It is.
JP 2005-303519 A

ここで、画素加算は、隣接する複数の画素を1画素に置き換えるため、必然的に画像サイズが小さくなる。したがって、ノイズは低減されても画像の解像度は低下してしまう。   Here, since pixel addition replaces a plurality of adjacent pixels with one pixel, the image size is inevitably reduced. Therefore, even if noise is reduced, the resolution of the image is lowered.

即ち、全画素読み出しによって取得される全画素画像データは高い解像力を有する一方で高感度になるとノイズレベルが大きくなり、逆に、画素加算読み出しによって取得される画素加算画像データは色ノイズと輝度ノイズとが共に良好な特性を有する一方で画素加算処理によって画像が縮小し解像力が低下してしまう。   In other words, all pixel image data acquired by all pixel readout has high resolution, while high sensitivity increases the noise level. Conversely, pixel addition image data acquired by pixel addition readout has color noise and luminance noise. Both of them have good characteristics, but the image is reduced by the pixel addition process and the resolution is lowered.

本発明は、上記の事情に鑑みてなされたものであり、高感度撮影時において、解像力の低下を抑えつつ、ノイズを改善した画像を生成することができる撮像装置及びこのような撮像装置における画像処理方法を提供することを目的とする。   The present invention has been made in view of the above circumstances, and an imaging apparatus capable of generating an image with improved noise while suppressing a decrease in resolution during high-sensitivity imaging, and an image in such an imaging apparatus An object is to provide a processing method.

上記の目的を達成するために、本発明の第1の態様による撮像装置は、少なくとも、隣接する複数の画素の電荷を加算して読み出す画素加算読み出しモードと全画素に対応する電荷を読み出す全画素読み出しモードとからなる複数の駆動モードを有する撮像素子と、前記撮像素子を前記画素加算読み出しモードで駆動して画素加算画像データを取得する動作と前記撮像素子を前記全画素読み出しモードで駆動して全画素画像データを取得する動作とを同時又は連続で実行する同時撮影部と、前記同時撮影部により得られた前記画素加算画像データと前記全画素画像データとをそれぞれ輝度成分と色差成分とに分離する輝度色差分離部と、前記画素加算画像データの輝度成分と前記全画素画像データの輝度成分とを合成して合成輝度画像データを生成する輝度成分画像合成部と、前記合成輝度画像データと前記画素加算画像データの色差成分とを合成して1つのカラー画像を合成する輝度色差合成部とを具備することを特徴とする。   In order to achieve the above object, the imaging device according to the first aspect of the present invention includes at least a pixel addition reading mode in which charges of a plurality of adjacent pixels are added and read out, and all pixels that read out charges corresponding to all the pixels. An image sensor having a plurality of drive modes consisting of a readout mode, an operation of driving the image sensor in the pixel addition readout mode to acquire pixel addition image data, and driving the image sensor in the all pixel readout mode A simultaneous photographing unit that performs the operation of acquiring all pixel image data simultaneously or continuously, and the pixel addition image data and the all pixel image data obtained by the simultaneous photographing unit are converted into a luminance component and a color difference component, respectively. A luminance / chrominance separation unit that separates the luminance component of the pixel-added image data and the luminance component of the all-pixel image data to synthesize luminance image data A luminance component image synthesizing unit to be generated, characterized by comprising the said combined luminance image data and the luminance and color difference synthesis unit for synthesizing one color image by synthesizing the color difference component of the pixel addition image data.

また、上記の目的を達成するために、本発明の第2の態様による画像処理方法は、少なくとも、隣接する複数の画素の電荷を加算して読み出す画素加算読み出しモードと全画素に対応する電荷を読み出す全画素読み出しモードとからなる複数の駆動モードを有する撮像素子からの出力を処理する画像処理方法であって、前記撮像素子を前記画素加算読み出しモードで駆動して画素加算画像データを取得する動作と前記撮像素子を前記全画素読み出しモードで駆動して全画素画像データを取得する動作とを同時又は連続で実行し、前記画素加算画像データと前記全画素画像データとをそれぞれ輝度成分と色差成分とに分離し、前記画素加算画像データの輝度成分と前記全画素画像データの輝度成分とを前記画素加算画像データの輝度成分と前記全画素画像データの輝度成分の何れかに基づく比率で加重平均して合成輝度画像データを生成し、前記合成輝度画像データと前記画素加算画像データの色差成分とを合成して1つのカラー画像を合成することを特徴とする。   In order to achieve the above object, the image processing method according to the second aspect of the present invention includes at least a pixel addition read mode in which charges of a plurality of adjacent pixels are read and a charge corresponding to all pixels. An image processing method for processing output from an image sensor having a plurality of drive modes consisting of a read all-pixel read mode, wherein the image sensor is driven in the pixel addition read mode to obtain pixel added image data And the operation of acquiring the all-pixel image data by driving the image sensor in the all-pixel readout mode simultaneously or continuously, and the luminance addition component and the color-difference component respectively for the pixel addition image data and the all-pixel image data. The luminance component of the pixel-added image data and the luminance component of the all-pixel image data are separated from the luminance component of the pixel-added image data and the luminance component of the pixel-added image data. A composite luminance image data is generated by weighted averaging at a ratio based on any one of the luminance components of the pixel image data, and one color image is synthesized by synthesizing the synthetic luminance image data and the color difference component of the pixel addition image data. It is characterized by doing.

これら第1及び第2の態様によれば、高解像の全画素画像データとノイズ特性の良い画素加算画像データとを合成することにより、高感度撮影時において、解像力の低下を抑えつつ、ノイズを改善した画像を生成することができる。   According to these first and second aspects, by combining high-resolution all-pixel image data and pixel-added image data with good noise characteristics, noise reduction is achieved while suppressing a decrease in resolution during high-sensitivity shooting. An image with improved can be generated.

本発明によれば、高感度撮影時において、解像力の低下を抑えつつ、ノイズを改善した画像を生成することができる撮像装置及びこのような撮像装置における画像処理方法を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the image processing method in such an imaging device which can generate | occur | produce the image which improved the noise, suppressing the fall of a resolving power at the time of high sensitivity imaging | photography, and such an imaging device can be provided.

以下、図面を参照して本発明の実施形態を説明する。なお、以下に説明する実施形態は数ある実施形態のうちの一部であり、本発明を限定するものではない。
[第1の実施形態]
図1は、本発明の第1の実施形態に係る撮像装置の主要な構成を示すブロック図である。図1に示すように、本実施形態の撮像装置は、レンズ1と、撮像素子2と、アナログ信号処理部3と、A/D変換部4と、CPU5と、Flashメモリ6と、メモリ7と、画像処理部8と、JPEG処理部9と、外部記憶インターフェイス(I/F)10と、外部記憶装置11と、LCDドライバ12と、LCD13と、操作部14と、バス15とを備えている。また、撮像素子2と、アナログ信号処理部3と、A/D変換部4とにより撮像部16が構成されている。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. In addition, embodiment described below is a part of many embodiment, and does not limit this invention.
[First Embodiment]
FIG. 1 is a block diagram showing the main configuration of the imaging apparatus according to the first embodiment of the present invention. As shown in FIG. 1, the imaging apparatus of the present embodiment includes a lens 1, an imaging device 2, an analog signal processing unit 3, an A / D conversion unit 4, a CPU 5, a flash memory 6, and a memory 7. An image processing unit 8, a JPEG processing unit 9, an external storage interface (I / F) 10, an external storage device 11, an LCD driver 12, an LCD 13, an operation unit 14, and a bus 15. . In addition, an imaging unit 16 is configured by the imaging device 2, the analog signal processing unit 3, and the A / D conversion unit 4.

レンズ1は、図示しない被写体からの光を集光する。撮像素子2は、レンズ1によって集光された光を受光して受光量に応じた電荷に変換し、この電荷を映像信号として出力する。ここで、撮像素子2は全画素読み出しモードと画素加算読み出しモードとを備える撮像素子であれば、CCD方式でもCMOS方式でも良い。アナログ信号処理部3は、相関二重サンプリング(CDS)回路と、オートゲインコントロール(AGC)回路とを含み、撮像素子2より得られる映像信号に対してアナログ処理を施す。A/D変換部4は、アナログ信号処理部3で得られる映像信号をデジタル化してデジタル画像データを生成する。   The lens 1 collects light from a subject (not shown). The imaging device 2 receives the light collected by the lens 1 and converts it into a charge corresponding to the amount of light received, and outputs this charge as a video signal. Here, the image sensor 2 may be a CCD system or a CMOS system as long as it is an image sensor having an all-pixel readout mode and a pixel addition readout mode. The analog signal processing unit 3 includes a correlated double sampling (CDS) circuit and an auto gain control (AGC) circuit, and performs analog processing on the video signal obtained from the image sensor 2. The A / D converter 4 digitizes the video signal obtained by the analog signal processor 3 to generate digital image data.

ここで、撮像素子2を全画素読み出しモード及び画素加算読み出しモードで駆動させて得られるデジタル画像データ(以下それぞれ、全画素画像データ、画素加算画像データとする)はバス15を介してSDRAM等からなるメモリ7へ格納される。画像処理部8は、メモリ7から全画素画像データ、画素加算画像データを読み出して画像処理を施す。JPEG処理部9は、画像処理部8によって処理され、メモリ7に格納された全画素画像データ及び画素加算画像データを読み出してJPEG圧縮処理を施す。JPEG処理部9で圧縮されて得られた圧縮画像データは外部記憶I/F10を経て外部記憶装置11へ格納される。また、JPEG処理部9は、外部記憶装置11に格納された圧縮画像データを読み出してJPEG伸張する処理も行う。LCDドライバ12は、画像処理部8によって処理された画像データをメモリ7から読み出して映像信号に変換し、この映像信号に基づいてLCD13に画像表示を行う。   Here, digital image data (hereinafter referred to as all pixel image data and pixel addition image data) obtained by driving the image pickup device 2 in the all pixel readout mode and the pixel addition readout mode is obtained from the SDRAM or the like via the bus 15. Stored in the memory 7. The image processing unit 8 reads out all pixel image data and pixel added image data from the memory 7 and performs image processing. The JPEG processing unit 9 reads out all pixel image data and pixel addition image data processed by the image processing unit 8 and stored in the memory 7, and performs JPEG compression processing. The compressed image data obtained by compression by the JPEG processing unit 9 is stored in the external storage device 11 via the external storage I / F 10. The JPEG processing unit 9 also performs processing for reading compressed image data stored in the external storage device 11 and decompressing it. The LCD driver 12 reads out the image data processed by the image processing unit 8 from the memory 7, converts it into a video signal, and displays an image on the LCD 13 based on the video signal.

同時撮影部としてのCPU5は、図1に示す撮像装置の各部を制御する。Flashメモリ6は、撮像装置によって実行される各種のプログラムと各種処理を実行するためのパラメータとを格納している。操作部14は、操作者が各種操作入力を行うための操作部である。   The CPU 5 serving as a simultaneous photographing unit controls each unit of the imaging apparatus illustrated in FIG. The flash memory 6 stores various programs executed by the imaging apparatus and parameters for executing various processes. The operation unit 14 is an operation unit for an operator to perform various operation inputs.

図2は、CPU5において実行されるプログラムについて示すフローチャートである。なお、図2に示すプログラムはFlashメモリ6に格納されている。   FIG. 2 is a flowchart showing a program executed in the CPU 5. The program shown in FIG. 2 is stored in the flash memory 6.

操作部14に含まれるレリーズボタンが半押しされて1stレリーズスイッチがオンになると(ステップS1)、CPU5は、AE(Auto Exposure)動作を開始して撮影時の露出条件を決定すると共に、AF(Auto Focus)動作を開始して焦点位置を求め、求めた焦点位置に応じてレンズ1を駆動する(ステップS2)。その後、レリーズボタンが全押しされて2ndレリーズスイッチがオンになると(ステップS3)、CPU5は、露出条件に従って図示しないシャッタ及び絞りの制御を行うと共に、撮像素子2を所定の撮影条件で駆動させて電荷の蓄積を開始させる(ステップS4)。電荷蓄積の終了後、撮像素子2から全画素読み出しモードで電荷が読み出される(ステップS5)。読み出された電荷は、アナログ信号処理部3、A/D変換部4を経てデジタル化される。これにより得られた全画素画像データがバス15を介してメモリ7へ格納される(ステップS6)。   When the release button included in the operation unit 14 is half-pressed and the 1st release switch is turned on (step S1), the CPU 5 starts an AE (Auto Exposure) operation to determine the exposure condition at the time of shooting and AF ( (Auto Focus) operation is started to determine the focal position, and the lens 1 is driven in accordance with the determined focal position (step S2). Thereafter, when the release button is fully pressed and the 2nd release switch is turned on (step S3), the CPU 5 controls a shutter and a diaphragm (not shown) according to the exposure conditions, and drives the image sensor 2 under predetermined photographing conditions. Charge accumulation is started (step S4). After the charge accumulation is completed, charges are read from the image sensor 2 in the all-pixel reading mode (step S5). The read charges are digitized through the analog signal processing unit 3 and the A / D conversion unit 4. All pixel image data obtained in this way is stored in the memory 7 via the bus 15 (step S6).

ステップS6と連続して、CPU5は、撮像素子2を、画素加算による感度上昇等を考慮した撮影条件で駆動させて電荷の蓄積を開始させる(ステップS7)。電荷蓄積の終了後、撮像素子2から画素加算読み出しモードで電荷が読み出される(ステップS8)。読み出された電荷はアナログ信号処理部3、A/D変換部4を経てデジタル化される。これにより得られた画素加算画像データがバス15を介してメモリ7へ格納される(ステップS9)。ここで、図1のように、撮像素子が1つしか設けられていない場合には、全画素画像と画素加算画像とは、時間差で撮影しなければ取得できない。したがって、動きの早い被写体を撮影すると、両者の画像に空間的なズレが生じてしまうことがあるが、撮像素子の数を少なくできる分、装置の簡素化が図れる。なお、図1の構成では、全画素画像と画素加算画像とを時間差で取得する必要があるが、その取得順序は図2に示した順序に限らず、逆順でも良い。   Continuing with step S6, the CPU 5 starts the accumulation of electric charges by driving the image pickup device 2 under photographing conditions that take into account the increase in sensitivity due to pixel addition (step S7). After the charge accumulation is completed, the charge is read from the image sensor 2 in the pixel addition reading mode (step S8). The read charges are digitized through the analog signal processing unit 3 and the A / D conversion unit 4. The pixel addition image data obtained in this way is stored in the memory 7 via the bus 15 (step S9). Here, as shown in FIG. 1, when only one image sensor is provided, the all-pixel image and the pixel-added image cannot be acquired unless they are taken with a time difference. Therefore, when a fast-moving subject is photographed, spatial misalignment may occur between the two images, but the apparatus can be simplified because the number of image sensors can be reduced. In the configuration of FIG. 1, it is necessary to acquire all pixel images and pixel addition images with a time difference, but the acquisition order is not limited to the order shown in FIG.

また、ステップS6及びステップS9にて画像データを取り込むにあたり、画素加算読み出しモードで得られる画像信号は、全画素読み出しモードで得られる画像信号と比較して、アナログ信号処理部3で行われるゲインアップの度合いが小さいため、ノイズ量の少ない画像となる。その半面、画素加算画像データは全画素画像データと比較するとサイズが小さくなっている。   In addition, when capturing image data in step S6 and step S9, the image signal obtained in the pixel addition reading mode is compared with the image signal obtained in the all-pixel reading mode, and the gain increase performed in the analog signal processing unit 3 is performed. Since the degree of is small, an image with a small amount of noise is obtained. On the other hand, the pixel-added image data is smaller in size than the all-pixel image data.

ステップS6及びステップS9でそれぞれ得られた全画素画像データ及び画素加算画像データは各画素がR、G、Bいずれかの単色の情報を持つ画像データであるため、1画素が3色の情報を持つように、画像処理部8はそれぞれの画像データに対して同時化処理を行う。更に、画像処理部8は、同時化処理を行ったそれぞれの画像データに対してホワイトバランス処理を行う。その後、それぞれの画像データをメモリ7に格納する(ステップS10)。   Since all pixel image data and pixel addition image data obtained in steps S6 and S9 are image data in which each pixel has single-color information of R, G, or B, one pixel contains information on three colors. As shown, the image processing unit 8 performs synchronization processing on each image data. Further, the image processing unit 8 performs white balance processing on each image data subjected to the synchronization processing. Thereafter, each image data is stored in the memory 7 (step S10).

更に、画像処理部8は、後に行われるノイズ低減処理のための輝度画像合成処理を行うために、各画素がR、G、Bの3成分で構成されている全画素画像データを輝度(Y)及び色差(C)成分の画像に分離する。その後、色差成分は破棄し、全画素画像データの輝度成分YFのみをメモリ7に格納する(ステップS11)。次に、画像処理部8は、画素加算画像データを輝度及び色差成分の画像に分離する。その後、輝度成分YMと色差成分CrM、CbMとをそれぞれメモリ7に格納する(ステップS12)。   Further, in order to perform luminance image synthesis processing for noise reduction processing to be performed later, the image processing unit 8 converts all pixel image data in which each pixel is composed of three components of R, G, and B to luminance (Y ) And color difference (C) component images. Thereafter, the color difference component is discarded, and only the luminance component YF of all pixel image data is stored in the memory 7 (step S11). Next, the image processing unit 8 separates the pixel-added image data into luminance and color difference component images. Thereafter, the luminance component YM and the color difference components CrM and CbM are respectively stored in the memory 7 (step S12).

前述のとおり、画素加算画像データは全画素画像データと比較してサイズが小さいため、画像処理部8は、画素加算画像データと全画素画像データとが同等の画像サイズとなるようにYM、CrM、CbMに対してリサイズ変換処理(画素値の補間処理)を行った後で、メモリ7に格納する(ステップS13)。以後はリサイズされた画素加算画像データを利用する。   As described above, since the pixel-added image data is smaller in size than the all-pixel image data, the image processing unit 8 performs YM, CrM so that the pixel-added image data and the all-pixel image data have the same image size. The resize conversion process (pixel value interpolation process) is performed on CbM, and then stored in the memory 7 (step S13). Thereafter, the resized pixel addition image data is used.

次に、画像処理部8は、輝度成分YF、YMを用いて輝度ノイズ低減のための輝度画像合成処理を行う(ステップS14)。ここで行う処理は、YFとYMで同位置の画素値を取得し、取得した画素値の加重平均値を合成輝度画像データの画素値とする処理である。そして、加重平均処理を行う際には、輝度の変化に応じてYFとYMの加重平均比率を変化させる。即ち、あらかじめ複数の輝度スレッシュと、その輝度スレッシュに対応する加重平均比率を設定しておき、YFとYMの何れか一方を基準輝度画像データ、他方を参照輝度画像データとし、基準輝度画像データの画素値を輝度スレッシュと比較して、比較結果に対応する加重平均比率をもって参照輝度画像データの画素値との加重平均をとる。このステップS14の処理を詳細に記したフローチャートを図3に示す。   Next, the image processing unit 8 performs luminance image synthesis processing for reducing luminance noise using the luminance components YF and YM (step S14). The process performed here is a process of acquiring pixel values at the same position in YF and YM, and setting the weighted average value of the acquired pixel values as the pixel value of the combined luminance image data. And when performing a weighted average process, the weighted average ratio of YF and YM is changed according to the change of a brightness | luminance. That is, a plurality of luminance thresholds and a weighted average ratio corresponding to the luminance thresholds are set in advance, one of YF and YM is set as the reference luminance image data, the other is the reference luminance image data, and the reference luminance image data The pixel value is compared with the luminance threshold, and a weighted average with the pixel value of the reference luminance image data is obtained with a weighted average ratio corresponding to the comparison result. FIG. 3 shows a flowchart detailing the process of step S14.

図3はステップS14の処理過程を具体的に示したものである。まず、簡単のために、輝度領域を低輝度領域、中輝度領域、高輝度領域の3段階に分け、低輝度−中輝度の輝度スレッシュをT1、中輝度−高輝度の輝度スレッシュをT2とする。また、それに対応するように低輝度領域、中輝度領域、高輝度領域での加重平均比率をそれぞれR1、R2、R3とする。一般的にノイズは暗部(低輝度領域)で目立つため、低輝度領域に対応する比率R1はノイズの少ないYMに大きなウェイトを、中輝度領域に対応する比率R2はYMとYFそれぞれに同程度のウェイトを、高輝度領域に対応する比率R3は解像感を重視するためYFに大きなウェイトを持たせることにより、暗部での輝度ノイズレベルを低く抑え、かつ元々ノイズの目立ちにくい中・高輝度領域における解像度の低下を低く抑えることができる。これらを踏まえたうえで、図3のフローチャートについて説明する。   FIG. 3 specifically shows the process of step S14. First, for the sake of simplicity, the luminance region is divided into three steps of a low luminance region, a medium luminance region, and a high luminance region, and the low luminance-medium luminance luminance threshold is T1, and the medium luminance-high luminance luminance threshold is T2. . Correspondingly, the weighted average ratios in the low luminance region, medium luminance region, and high luminance region are R1, R2, and R3, respectively. In general, noise is conspicuous in the dark part (low luminance region). Therefore, the ratio R1 corresponding to the low luminance region has a large weight for YM with little noise, and the ratio R2 corresponding to the medium luminance region is about the same for each of YM and YF. The ratio R3 corresponding to the high-luminance area emphasizes resolution, so by giving YF a large weight, the luminance noise level in the dark part can be kept low, and noise is not noticeable from the middle / high-luminance area It is possible to suppress a decrease in resolution at a low level. Based on these, the flowchart of FIG. 3 will be described.

画像処理部8は、まず合成をするにあたっての基準輝度画像データを決定する(ステップS21)。ここではノイズの少ないYM(画素加算画像データの輝度成分)を基準輝度画像データとする。次に、画像処理部8は、基準輝度画像データに決定したYMをラスタスキャンし、画素値を取得する(ステップS22)。そして、画像処理部8は、ラスタスキャンによって画素値を取得した画素(着目画素とする)の画素値が輝度スレッシュT1以下か否かを判定する(ステップS23)。ステップS23の判定において、着目画素の画素値が輝度スレッシュT1以下、即ち着目画素の画素値が低輝度領域に属していれば、画像処理部8は、ステップS22で取得したYMの画素値と、それと同位置に存在しているYFの画素値とを加重平均比率R1で加重平均する(ステップS24)。その後、加重平均処理に得られた画素値を合成後の輝度画像データYの輝度値として出力する(ステップS25)。その後に、画像処理部8は、現在の着目画素が終端の画素(例えば左上端の画素からラスタスキャンを開始した場合には右下端の画素が終端画素となる)であるか否かを判定する(ステップS26)。ステップS26の判定において、現在の着目画素が終端画素である場合には、一連の処理を終了し、そうでない場合はステップS22に戻り、ラスタスキャンを再開する。   The image processing unit 8 first determines reference luminance image data for synthesis (step S21). Here, YM (the luminance component of the pixel-added image data) with less noise is used as the reference luminance image data. Next, the image processing unit 8 raster scans YM determined as the reference luminance image data, and obtains a pixel value (step S22). Then, the image processing unit 8 determines whether or not the pixel value of the pixel (referred to as the target pixel) whose pixel value has been acquired by raster scanning is equal to or less than the luminance threshold T1 (step S23). In the determination in step S23, if the pixel value of the pixel of interest is equal to or less than the luminance threshold T1, that is, if the pixel value of the pixel of interest belongs to the low luminance region, the image processing unit 8 calculates the YM pixel value acquired in step S22, A YF pixel value existing at the same position is weighted and averaged at a weighted average ratio R1 (step S24). Thereafter, the pixel value obtained by the weighted average process is output as the luminance value of the synthesized luminance image data Y (step S25). After that, the image processing unit 8 determines whether or not the current pixel of interest is a terminal pixel (for example, when raster scanning is started from the upper left pixel, the lower right pixel is the final pixel). (Step S26). If it is determined in step S26 that the current pixel of interest is a terminal pixel, the series of processing ends, and if not, the process returns to step S22 to restart raster scanning.

また、ステップS23の判定において、着目画素の画素値が輝度スレッシュT1を超えていた場合には、画像処理部8は、着目画素の画素値が輝度スレッシュT2以下であるか否かを判定する(ステップS27)。ステップS27の判定において、着目画素の画素値が輝度スレッシュT2以下、即ち着目画素の画素値が中輝度領域に属していれば、画像処理部8は、ステップS22で取得したYMの画素値と、それと同位置に存在しているYFの画素値とを加重平均比率R2で加重平均し(ステップS28)、得られた画素値を合成後の輝度画像データYの輝度値として出力する。また、ステップS27の判定において、着目画素の画素値が輝度スレッシュT2を超えていた場合、即ち着目画素の画素値が高輝度領域に属していれば、画像処理部8は、ステップS22で取得したYMの画素値と、それと同位置に存在しているYFの画素値とを加重平均比率R3で加重平均し(ステップS29)、得られた画素値を合成後の輝度画像データYの輝度値として出力する。これらの処理を行うことで、最終的に輝度に応じて合成された輝度画像データYが生成される。この合成輝度画像データYは、低輝度領域で目立ちやすい輝度ノイズが大幅に抑制され、中・高輝度領域での解像感の低下が抑制された画像となる。   If it is determined in step S23 that the pixel value of the target pixel exceeds the luminance threshold T1, the image processing unit 8 determines whether or not the pixel value of the target pixel is equal to or lower than the luminance threshold T2 ( Step S27). In the determination in step S27, if the pixel value of the pixel of interest is equal to or less than the luminance threshold T2, that is, if the pixel value of the pixel of interest belongs to the medium luminance region, the image processing unit 8 determines the pixel value of YM acquired in step S22, The YF pixel value existing at the same position is weighted and averaged by the weighted average ratio R2 (step S28), and the obtained pixel value is output as the luminance value of the synthesized luminance image data Y. If the pixel value of the pixel of interest exceeds the luminance threshold T2 in the determination in step S27, that is, if the pixel value of the pixel of interest belongs to the high luminance area, the image processing unit 8 acquires in step S22. The YM pixel value and the YF pixel value existing at the same position are weighted and averaged at a weighted average ratio R3 (step S29), and the obtained pixel value is used as the luminance value of the synthesized luminance image data Y. Output. By performing these processes, the luminance image data Y synthesized according to the luminance is finally generated. This synthesized luminance image data Y is an image in which luminance noise that is conspicuous in the low luminance region is greatly suppressed, and a decrease in resolution in the middle and high luminance regions is suppressed.

ここで、再び図2のフローチャートの説明に戻る。ステップS14で輝度画像データの合成処理を行った後、画像処理部8は、合成輝度画像データYと画素加算画像データの色差成分CrM、CbMとを合成して、R、G、B成分の画像データに変換することで画像を再構築し、メモリ7に格納する(ステップS15)。画素加算画像データの色差成分は全画素画像データのものと比較して低ノイズであるため、これを再構築画像データの色差成分として使用することにより輝度ノイズだけでなく、色ノイズも大幅に低減させることが可能となる。次に、JPEG処理部9は、メモリ7から再構築されたR、G、B成分からなるカラー画像データを読み出して圧縮処理した後(ステップS16)、圧縮画像データを外部記憶I/F10を介してメモリカードなどの外部記憶装置11に書き込む(ステップS17)。   Here, the description returns to the flowchart of FIG. After performing the luminance image data combining process in step S14, the image processing unit 8 combines the combined luminance image data Y and the color difference components CrM and CbM of the pixel addition image data to generate an image of R, G, and B components. The image is reconstructed by conversion to data and stored in the memory 7 (step S15). Since the color difference component of pixel-added image data is low noise compared to that of all pixel image data, using this as the color difference component of reconstructed image data significantly reduces not only luminance noise but also color noise. It becomes possible to make it. Next, the JPEG processing unit 9 reads the color image data composed of the R, G, and B components reconstructed from the memory 7 and performs compression processing (step S16), and then the compressed image data is transmitted via the external storage I / F 10. Is written in the external storage device 11 such as a memory card (step S17).

図2及び図3に示した一連の処理により、輝度ノイズ、色ノイズを大幅に低減でき、かつ解像劣化の程度を低く抑えた画像を取得することが可能になる。また、輝度画像データの合成において加重平均比率を決定する際及び画像データの再構築の際には、それぞれノイズの少ない画素加算画像データの輝度成分及び色差成分を利用することにより、よりノイズ低減効果を高めることが可能である。   With the series of processing shown in FIGS. 2 and 3, it is possible to obtain an image in which luminance noise and color noise can be significantly reduced and the degree of resolution degradation is suppressed to a low level. Further, when determining the weighted average ratio in the synthesis of luminance image data and when reconstructing the image data, the noise component can be further reduced by using the luminance component and color difference component of the pixel-added image data with less noise. It is possible to increase.

[第2の実施形態]
次に、本発明の第2の実施形態について説明する。図4は本発明の第2の実施形態に係る撮像装置の主要な構成を示すブロック図である。ここで、図4において図1と同じ参照符号が付されている構成は図1と同様のものなので説明を省略する。図4に示す撮像装置には光路分岐プリズム20が設けられている。光路分岐プリズム20はレンズ1によって集光された光を分岐させ、分岐させた一方の光を撮像部27に入射させ、もう一方の光を撮像部28に入射させる。このような構成により、被写体からの光を同時に2つの撮像部に入射させることが可能になる。
[Second Embodiment]
Next, a second embodiment of the present invention will be described. FIG. 4 is a block diagram showing a main configuration of an imaging apparatus according to the second embodiment of the present invention. Here, in FIG. 4, the same reference numerals as those in FIG. 1 are the same as those in FIG. The imaging apparatus shown in FIG. 4 is provided with an optical path branching prism 20. The optical path branching prism 20 branches the light collected by the lens 1, makes one branched light incident on the imaging unit 27, and makes the other light incident on the imaging unit 28. With such a configuration, light from the subject can be simultaneously incident on the two imaging units.

即ち、レンズ1によって集光した光を光路分岐プリズム20によって2系統に分け、それぞれの光を撮像素子21、撮像素子22にて受光させる。ここで、撮像素子21は全画素読み出しモードを、撮像素子22は画素加算読み出しモードを備える。撮像素子21より得られる映像信号は、後段の相関二重サンプリング(CDS)、オートゲインコントロール(AGC)を含むアナログ信号処理部23及びA/D変換部25を経てデジタル画像データ(全画素画像データ)となる。同様に、撮像素子22より得られる映像信号はアナログ信号処理部24、A/D変換部26を経てデジタル画像データ(画素加算画像データ)となる。   That is, the light condensed by the lens 1 is divided into two systems by the optical path branching prism 20, and each light is received by the image sensor 21 and the image sensor 22. Here, the image sensor 21 has an all-pixel readout mode, and the image sensor 22 has a pixel addition readout mode. The video signal obtained from the image sensor 21 is converted into digital image data (all-pixel image data) via an analog signal processing unit 23 and an A / D conversion unit 25 including later correlated double sampling (CDS) and auto gain control (AGC). ) Similarly, a video signal obtained from the image sensor 22 becomes digital image data (pixel-added image data) through the analog signal processing unit 24 and the A / D conversion unit 26.

全画素読み出しモード及び画素加算読み出しモードによって得られたデジタル画像データはバス15を介してメモリ7へ格納される。その後、メモリ7から読み出された全画素画像データ、画素加算画像データは画像処理部8で画像処理がなされた後、JPEG処理部9でJPEG圧縮処理が行われ、外部記憶I/F10を経て外部記憶装置11へ格納される。また、画像処理部8で画像処理された画像データはLCDドライバ12を経て映像信号に変換され、この映像信号に基づいてLCD13に画像が表示される。   Digital image data obtained in the all-pixel readout mode and the pixel addition readout mode is stored in the memory 7 via the bus 15. Thereafter, all pixel image data and pixel addition image data read from the memory 7 are subjected to image processing by the image processing unit 8, and then subjected to JPEG compression processing by the JPEG processing unit 9, via the external storage I / F 10. It is stored in the external storage device 11. The image data processed by the image processing unit 8 is converted into a video signal through the LCD driver 12, and an image is displayed on the LCD 13 based on the video signal.

図5は、CPU5において実行されるプログラムのフローチャートである。なお、図5に示すプログラムはFlashメモリ6に格納されている。   FIG. 5 is a flowchart of a program executed by the CPU 5. The program shown in FIG. 5 is stored in the flash memory 6.

操作部14に含まれるレリーズボタンが半押しされて1stレリーズスイッチがオンされると(ステップS41)、CPU5は、AE動作及びAF動作を開始する(ステップS42)。その後、レリーズボタンが全押しされて2ndレリーズスイッチがオンされると(ステップS43)、CPU5は、撮像素子21及び撮像素子22をそれぞれ所定の撮影条件で駆動して電荷の蓄積を開始させる(ステップS44)。撮像素子21からは全画素読み出しモードで電荷が読み出され(ステップS45)、アナログ信号処理部23、A/D変換部25を経てデジタル化された後、デジタル化されて得られた全画素画像データがバス15を介してメモリ7へ格納される(ステップS46)。   When the release button included in the operation unit 14 is pressed halfway and the 1st release switch is turned on (step S41), the CPU 5 starts the AE operation and the AF operation (step S42). Thereafter, when the release button is fully pressed and the 2nd release switch is turned on (step S43), the CPU 5 drives the image pickup device 21 and the image pickup device 22 under predetermined shooting conditions to start accumulation of charges (step S43). S44). Charges are read out from the image sensor 21 in the all-pixel reading mode (step S45), digitized through the analog signal processing unit 23 and the A / D conversion unit 25, and then digitized to obtain all pixel images. Data is stored in the memory 7 via the bus 15 (step S46).

同様に、撮像素子22からは画素加算読み出しモードで電荷が読み出され(ステップS47)、アナログ信号処理部24、A/D変換部26を経てデジタル化された後、デジタル化されて得られた画素加算画像データがバス15を介してメモリ7へ格納される(ステップS48)。   Similarly, the charge is read from the image sensor 22 in the pixel addition reading mode (step S47), digitized through the analog signal processing unit 24 and the A / D conversion unit 26, and then obtained by digitization. Pixel-added image data is stored in the memory 7 via the bus 15 (step S48).

以降のステップS49〜S56は、第1の実施形態の図2で示したフローチャートのステップS10〜S17と同様である。また、ステップS53で行われる輝度画像データの合成処理も第1の実施形態の図3で示したフローチャートの処理である。したがってこれ以降の処理については説明を省略する。   Subsequent steps S49 to S56 are the same as steps S10 to S17 of the flowchart shown in FIG. 2 of the first embodiment. Further, the luminance image data synthesis processing performed in step S53 is also the processing of the flowchart shown in FIG. 3 of the first embodiment. Therefore, description of the subsequent processing is omitted.

図5で説明した一連の処理により、輝度ノイズ、色ノイズを大幅に低減でき、かつ解像劣化の程度を低く抑えた画像を取得することが可能になる。また、第2の実施形態のように光路や撮像素子を2系統用意することで構成は複雑化するが、全画素画像と画素加算画像とを同時に撮影することができ、タイムラグの無い画像を得ることが可能になる。したがって、加重平均の際の画素位置の一致度を高め、より精度良く合成輝度画像データYを求めることが可能である。   The series of processing described with reference to FIG. 5 makes it possible to significantly reduce luminance noise and color noise, and to acquire an image with reduced resolution degradation. In addition, although the configuration is complicated by preparing two optical paths and image pickup devices as in the second embodiment, all pixel images and pixel addition images can be taken simultaneously, and an image without time lag is obtained. It becomes possible. Accordingly, it is possible to increase the degree of coincidence of the pixel positions during the weighted average and obtain the synthesized luminance image data Y with higher accuracy.

以上実施形態に基づいて本発明を説明したが、本発明は上述した実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形や応用が可能なことは勿論である。例えば、上述した実施形態では、輝度領域を3段階に分ける例について説明しているが、4段階以上に分けるようにしても良い。この場合には、輝度領域の数に応じて輝度スレッシュ及び合成比率を設定し、追加した輝度領域も含めて図3の処理を行えば良い。   Although the present invention has been described above based on the embodiments, the present invention is not limited to the above-described embodiments, and various modifications and applications are naturally possible within the scope of the gist of the present invention. For example, in the above-described embodiment, an example in which the luminance region is divided into three stages has been described. However, the luminance area may be divided into four or more stages. In this case, the luminance threshold and the composition ratio may be set according to the number of luminance areas, and the process of FIG. 3 may be performed including the added luminance area.

さらに、前記した実施形態には種々の段階の発明が含まれており、開示される複数の構成要件の適当な組合せにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、上述したような課題を解決でき、上述したような効果が得られる場合には、この構成要件が削除された構成も発明として抽出され得る。   Furthermore, the above-described embodiments include various stages of the invention, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some configuration requirements are deleted from all the configuration requirements shown in the embodiment, the above-described problem can be solved, and this configuration requirement is deleted when the above-described effects can be obtained. The configuration can also be extracted as an invention.

本発明の第1の実施形態に係る撮像装置の主要ブロック図である。1 is a main block diagram of an imaging apparatus according to a first embodiment of the present invention. 本発明の第1の実施形態の基本フローチャートである。It is a basic flow chart of a 1st embodiment of the present invention. 輝度画像合成処理の詳細を記したフローチャートである。It is the flowchart which described the detail of the brightness | luminance image synthetic | combination process. 本発明の第2の実施形態に係る撮像装置の主要ブロック図である。It is a main block diagram of the imaging device concerning a 2nd embodiment of the present invention. 本発明の第2の実施形態の基本フローチャートである。It is a basic flow chart of a 2nd embodiment of the present invention.

符号の説明Explanation of symbols

1…レンズ、2,21,22…撮像素子、3,23,24…アナログ信号処理部、4,25,26…A/D変換部、5…CPU、6…Flashメモリ、7…メモリ、8…画像処理部、9…JPEG処理部、10…外部記憶インターフェイス(I/F)、11…外部記憶装置、12…LCDドライバ、13…LCD、14…操作部、15…バス、20…光路分岐プリズム   DESCRIPTION OF SYMBOLS 1 ... Lens, 2, 21, 22 ... Image pick-up element, 3, 23, 24 ... Analog signal processing part, 4, 25, 26 ... A / D conversion part, 5 ... CPU, 6 ... Flash memory, 7 ... Memory, 8 Image processing unit, 9 JPEG processing unit, 10 External storage interface (I / F), 11 External storage device, 12 LCD driver, 13 LCD, 14 operation unit, 15 bus, 20 optical path branching prism

Claims (6)

少なくとも、隣接する複数の画素の電荷を加算して読み出す画素加算読み出しモードと全画素に対応する電荷を読み出す全画素読み出しモードとからなる複数の駆動モードを有する撮像素子と、
前記撮像素子を前記画素加算読み出しモードで駆動して画素加算画像データを取得する動作と前記撮像素子を前記全画素読み出しモードで駆動して全画素画像データを取得する動作とを同時又は連続で実行する同時撮影部と、
前記同時撮影部により得られた前記画素加算画像データと前記全画素画像データとをそれぞれ輝度成分と色差成分とに分離する輝度色差分離部と、
前記画素加算画像データの輝度成分と前記全画素画像データの輝度成分とを合成して合成輝度画像データを生成する輝度成分画像合成部と、
前記合成輝度画像データと前記画素加算画像データの色差成分とを合成して1つのカラー画像を合成する輝度色差合成部と、
を具備することを特徴とする撮像装置。
An image pickup device having a plurality of drive modes including at least a pixel addition read mode for adding and reading charges of a plurality of adjacent pixels and an all-pixel read mode for reading charges corresponding to all pixels;
The operation of acquiring the pixel addition image data by driving the image sensor in the pixel addition readout mode and the operation of acquiring the all pixel image data by driving the image sensor in the all pixel readout mode are executed simultaneously or continuously. A simultaneous shooting unit to
A luminance color difference separation unit that separates the pixel addition image data and the all pixel image data obtained by the simultaneous photographing unit into a luminance component and a color difference component, respectively;
A luminance component image combining unit that combines the luminance component of the pixel-added image data and the luminance component of the all-pixel image data to generate combined luminance image data;
A luminance / color difference combining unit that combines the combined luminance image data and the color difference component of the pixel-added image data to combine one color image;
An imaging apparatus comprising:
前記輝度成分画像合成部は、前記画素加算画像データの輝度成分と前記全画素画像データの輝度成分とでそれぞれ対応する画素の画素値の加重平均値を前記合成輝度画像データにおいて対応する画素の画素値とすることで、前記合成輝度画像データを生成することを特徴とする請求項1に記載の撮像装置。   The luminance component image composition unit calculates a weighted average value of pixel values corresponding to the luminance component of the pixel-added image data and the luminance component of the all-pixel image data, and the pixel of the corresponding pixel in the synthetic luminance image data. The imaging apparatus according to claim 1, wherein the combined luminance image data is generated by using a value. 前記輝度成分画像合成部は、前記画素加算画像データの輝度成分と前記全画素画像データの輝度成分のうち何れか一方の各画素の画素値を輝度閾値と比較し、該比較の結果に応じて前記加重平均値を求める際の加重平均比率を画素毎に変化させることを特徴とする請求項2に記載の撮像装置。   The luminance component image composition unit compares the pixel value of each pixel of any one of the luminance component of the pixel-added image data and the luminance component of the all-pixel image data with a luminance threshold, and according to the result of the comparison The imaging apparatus according to claim 2, wherein a weighted average ratio for obtaining the weighted average value is changed for each pixel. 前記輝度成分画像合成部は、前記画素加算画像データの輝度成分の各画素の画素値を前記輝度閾値と比較することを特徴とする請求項3に記載の撮像装置。   The imaging apparatus according to claim 3, wherein the luminance component image composition unit compares the pixel value of each pixel of the luminance component of the pixel addition image data with the luminance threshold value. 前記輝度閾値は、前記比較される画素の画素値が低輝度領域、中輝度領域、高輝度領域の何れに属するかを識別するための輝度閾値を含み、
前記輝度成分画像合成部は、前記比較の結果、前記画素の画素値が前記低輝度領域に属する場合には前記画素加算画像データの輝度成分のウェイトを大きくした加重平均比率を用いて前記加重平均値を求め、前記画素の画素値が前記中輝度領域に属する場合には前記画素加算画像データの輝度成分と前記全画素画像データの輝度成分のウェイトとを等しくした加重平均比率を用いて前記加重平均値を求め、前記画素の画素値が前記高輝度領域に属する場合には前記全画素画像データの輝度成分のウェイトを大きくした加重平均比率を用いて前記加重平均値を求めることを特徴とする請求項3又は4に記載の撮像装置。
The luminance threshold value includes a luminance threshold value for identifying whether a pixel value of the pixel to be compared belongs to a low luminance region, a medium luminance region, or a high luminance region,
If the pixel value of the pixel belongs to the low luminance region as a result of the comparison, the luminance component image composition unit uses the weighted average ratio obtained by increasing the weight of the luminance component of the pixel added image data. A value is obtained, and when the pixel value of the pixel belongs to the medium luminance region, the weighted average ratio in which the weight of the luminance component of the pixel-added image data and the weight of the luminance component of the all-pixel image data are made equal is used. An average value is obtained, and when the pixel value of the pixel belongs to the high luminance region, the weighted average value is obtained using a weighted average ratio obtained by increasing a weight of a luminance component of the all pixel image data. The imaging device according to claim 3 or 4.
少なくとも、隣接する複数の画素の電荷を加算して読み出す画素加算読み出しモードと全画素に対応する電荷を読み出す全画素読み出しモードとからなる複数の駆動モードを有する撮像素子からの出力を処理する画像処理方法であって、
前記撮像素子を前記画素加算読み出しモードで駆動して画素加算画像データを取得する動作と前記撮像素子を前記全画素読み出しモードで駆動して全画素画像データを取得する動作とを同時又は連続で実行し、
前記画素加算画像データと前記全画素画像データとをそれぞれ輝度成分と色差成分とに分離し、
前記画素加算画像データの輝度成分と前記全画素画像データの輝度成分とを前記画素加算画像データの輝度成分と前記全画素画像データの輝度成分の何れかに基づく比率で加重平均して合成輝度画像データを生成し、
前記合成輝度画像データと前記画素加算画像データの色差成分とを合成して1つのカラー画像を合成する、
ことを特徴とする画像処理方法。
Image processing for processing output from an image sensor having a plurality of drive modes including at least a pixel addition readout mode for adding and reading out charges of a plurality of adjacent pixels and an all-pixel readout mode for reading out charges corresponding to all the pixels A method,
The operation of acquiring the pixel addition image data by driving the image sensor in the pixel addition readout mode and the operation of acquiring the all pixel image data by driving the image sensor in the all pixel readout mode are executed simultaneously or continuously. And
Separating the pixel-added image data and the all-pixel image data into a luminance component and a color difference component, respectively;
The luminance component of the pixel-added image data and the luminance component of the all-pixel image data are weighted and averaged at a ratio based on either the luminance component of the pixel-added image data or the luminance component of the all-pixel image data. Generate data,
Combining the synthesized luminance image data and the color difference component of the pixel-added image data to synthesize one color image;
An image processing method.
JP2006317399A 2006-11-24 2006-11-24 Imaging apparatus, and image processing method Pending JP2008131580A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2006317399A JP2008131580A (en) 2006-11-24 2006-11-24 Imaging apparatus, and image processing method
CN2007101675589A CN101188773B (en) 2006-11-24 2007-10-26 Camera and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006317399A JP2008131580A (en) 2006-11-24 2006-11-24 Imaging apparatus, and image processing method

Publications (1)

Publication Number Publication Date
JP2008131580A true JP2008131580A (en) 2008-06-05

Family

ID=39480918

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006317399A Pending JP2008131580A (en) 2006-11-24 2006-11-24 Imaging apparatus, and image processing method

Country Status (2)

Country Link
JP (1) JP2008131580A (en)
CN (1) CN101188773B (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011086901A1 (en) * 2010-01-13 2011-07-21 株式会社ニコンシステム Image processing device, image capture device, and image processing program
WO2014112611A1 (en) 2013-01-21 2014-07-24 興和株式会社 Image processing device, image processing method, image processing program, and recording medium storing said program
US10264223B2 (en) 2015-09-07 2019-04-16 Olympus Corporation Image processing device and image processing method
US10868981B2 (en) 2016-04-27 2020-12-15 Sony Corporation Shooting control apparatus, shooting control method, and shooting apparatus

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5136664B2 (en) * 2010-07-09 2013-02-06 カシオ計算機株式会社 Image processing apparatus and program
JP2012222742A (en) * 2011-04-13 2012-11-12 Sony Corp Imaging element and imaging apparatus
CN103986922B (en) * 2013-02-07 2016-03-02 聚晶半导体股份有限公司 Image processing method
CN105704363B (en) * 2014-11-28 2020-12-29 广东中星微电子有限公司 Image data processing method and device
CN104902143B (en) * 2015-05-21 2018-01-19 广东欧珀移动通信有限公司 A kind of image de-noising method and device based on resolution ratio
CN105007422B (en) * 2015-07-14 2018-01-23 广东欧珀移动通信有限公司 A kind of phase focusing method and user terminal
CN111666409B (en) * 2020-05-28 2022-02-08 武汉大学 Integrated emotion intelligent classification method for complex comment text based on comprehensive deep capsule network
CN111639588A (en) * 2020-05-28 2020-09-08 深圳壹账通智能科技有限公司 Image effect adjusting method, device, computer system and readable storage medium
KR20220156242A (en) * 2021-05-18 2022-11-25 에스케이하이닉스 주식회사 Image Processing Device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011086901A1 (en) * 2010-01-13 2011-07-21 株式会社ニコンシステム Image processing device, image capture device, and image processing program
WO2014112611A1 (en) 2013-01-21 2014-07-24 興和株式会社 Image processing device, image processing method, image processing program, and recording medium storing said program
US9501846B2 (en) 2013-01-21 2016-11-22 Kowa Company, Ltd. Image processing device, image processing method, image processing program, and recording medium storing said program for producing noise-eliminated image
US10264223B2 (en) 2015-09-07 2019-04-16 Olympus Corporation Image processing device and image processing method
US10868981B2 (en) 2016-04-27 2020-12-15 Sony Corporation Shooting control apparatus, shooting control method, and shooting apparatus

Also Published As

Publication number Publication date
CN101188773B (en) 2010-10-20
CN101188773A (en) 2008-05-28

Similar Documents

Publication Publication Date Title
JP4742242B2 (en) Imaging apparatus and program thereof
KR101303410B1 (en) Image capture apparatus and image capturing method
JP5131257B2 (en) Display control apparatus and display control program
JP3430994B2 (en) camera
JP2014096621A (en) Imaging apparatus and imaging method
JP2010136224A (en) Imaging apparatus and imaging method
JP5780764B2 (en) Imaging device
JP2008131580A (en) Imaging apparatus, and image processing method
JP5304295B2 (en) Imaging device and white balance bracketing shooting program
JP2006293009A (en) Automatic focusing device and method
JP5002931B2 (en) Imaging apparatus and program thereof
JP5903478B2 (en) Imaging apparatus and imaging method
JP5452269B2 (en) Imaging device
JP4678053B2 (en) Imaging device
JP2009164859A (en) Imaging apparatus and imaging control method
JP2006245999A (en) Imaging apparatus and program
US8368782B2 (en) Multiple exposure image pickup apparatus, multiple exposure image pickup method, program, and recording medium
JP2010050599A (en) Electronic camera
JP2009164723A (en) Imaging apparatus and imaging control method
JP2016146650A (en) Imaging device, imaging method, display device, and display method
JP2020048135A (en) Imaging apparatus and control method of the same
JP4236603B2 (en) Electronic camera
JP2005117276A (en) Imaging device
JP2006262221A (en) Imaging apparatus and image processing method
JP2017022596A (en) Image processing apparatus, control method thereof, and program