[go: up one dir, main page]

JP7116001B2 - Imaging device and image processing method - Google Patents

Imaging device and image processing method Download PDF

Info

Publication number
JP7116001B2
JP7116001B2 JP2019060777A JP2019060777A JP7116001B2 JP 7116001 B2 JP7116001 B2 JP 7116001B2 JP 2019060777 A JP2019060777 A JP 2019060777A JP 2019060777 A JP2019060777 A JP 2019060777A JP 7116001 B2 JP7116001 B2 JP 7116001B2
Authority
JP
Japan
Prior art keywords
image
pixel
light
pixels
wavelength range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019060777A
Other languages
Japanese (ja)
Other versions
JP2020162034A (en
Inventor
純也 飯塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Astemo Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Astemo Ltd filed Critical Hitachi Astemo Ltd
Priority to JP2019060777A priority Critical patent/JP7116001B2/en
Priority to CN202080017627.1A priority patent/CN113574851B/en
Priority to PCT/JP2020/008036 priority patent/WO2020195515A1/en
Publication of JP2020162034A publication Critical patent/JP2020162034A/en
Application granted granted Critical
Publication of JP7116001B2 publication Critical patent/JP7116001B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/12Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with one sensor only

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Color Television Image Signal Generators (AREA)
  • Studio Devices (AREA)

Description

本発明は、撮像装置、及び画像処理方法に関し、特に撮像した画像の色相を判別する撮像装置、及び画像処理方法に関する。 The present invention relates to an imaging device and an image processing method, and more particularly to an imaging device and an image processing method for determining the hue of a captured image.

運転支援や自動運転のために車両に搭載される車載カメラは、車両の横方向から飛び出す歩行者や自転車を検出する精度を向上するため、広画角化が求められる。その一方で、車載カメラは、ACC機能(Adaptive Cruise Control、定速走行、車間距離制御)などのために、より遠方の対象物までの距離を正確に検出する必要があり、高い空間解像度が求められる。しかし、広画角化は一般にカメラの対物レンズの焦点距離を小さくすることで実現されるが、これに伴い空間解像度が低下する。このため、対物レンズの改善のみでは広画角化と空間解像度向上とを両立させることは難しい。 In-vehicle cameras installed in vehicles for driving support and autonomous driving are required to have a wide angle of view in order to improve the accuracy of detecting pedestrians and bicycles coming out from the side of the vehicle. On the other hand, in-vehicle cameras are required to accurately detect the distance to distant objects for ACC functions (adaptive cruise control, constant speed driving, inter-vehicle distance control), etc., requiring high spatial resolution. be done. However, the widening of the angle of view is generally achieved by reducing the focal length of the objective lens of the camera, which in turn reduces the spatial resolution. Therefore, it is difficult to achieve both widening of the angle of view and improvement of spatial resolution only by improving the objective lens.

これに対して、異なる方式のイメージセンサの採用により空間解像度を向上させる技術も知られている。車載カメラでは、運転支援のために、交通信号機、標識、並びに路上の白色線及び橙色線等を認識するためにRGGB(Red-Green-Green-Blue)画素配列(又はベイヤー配列)のカラーイメージセンサを採用することが多い。近年、このRGGB配列のイメージセンサをRCCC(Red-Clear-Clear-Clear)画素配列などのカラーイメージセンサに置き換える技術が提案されている。これによれば、イメージセンサの空間解像度を改善され、広画角化と空間解像度向上を両立させることができる。 On the other hand, there is also known a technique of improving spatial resolution by adopting an image sensor of a different type. In-vehicle cameras use RGGB (Red-Green-Green-Blue) pixel array (or Bayer array) color image sensors to recognize traffic lights, signs, and white and orange lines on the road for driving support. are often adopted. In recent years, a technology has been proposed to replace the RGGB array image sensor with a color image sensor such as an RCCC (Red-Clear-Clear-Clear) pixel array. According to this, the spatial resolution of the image sensor can be improved, and both widening of the angle of view and improvement of the spatial resolution can be achieved.

RCCC画素配列は、例えば、赤色光を検出する画素(R画素)を1個と、青色光と緑色光と赤色光を共に検出するクリア画素(C画素)を3個、計4個の画素を2行2列(2×2)に並べて一単位(ユニットセル)とし、そのユニットセルを繰り返し配列することで構成される。C画素の間隔は1画素であり、この点、同色の画素の間隔が2画素であるRGGB配列等とは異なっている。このRCCC配列では、測距で参照するグレースケール画像に対して、画素全体の3/4をなすC画素の検出値をそのまま用いることができ、且つ空間解像度を低下させる周囲の画素からの補間処理の適用を画素全体の1/4の割合のR画素の位置のみに留めることができる。このため、RGGB画素配列と比較して高い空間解像度を得られると期待される。 The RCCC pixel array includes, for example, one pixel (R pixel) that detects red light, and three clear pixels (C pixels) that detect both blue, green, and red light, a total of four pixels. The cells are arranged in two rows and two columns (2×2) to form one unit (unit cell), and the unit cells are repeatedly arranged. The interval between C pixels is 1 pixel, which is different from the RGGB arrangement or the like in which the interval between pixels of the same color is 2 pixels. In this RCCC array, the detection values of C pixels that make up 3/4 of the entire pixels can be used as they are for a grayscale image referred to in distance measurement, and interpolation processing from surrounding pixels that reduces the spatial resolution is performed. can be limited to R pixel locations only in a quarter of the total pixels. Therefore, it is expected that a higher spatial resolution can be obtained compared to the RGGB pixel array.

しかし、R(Red)とC(Clear)の2種類の画素からなるRCCC画素配列では、R赤(Red)、緑(Green)、青(Blue)の3原色を区分して光量を検出するRGGB画素配列と比較して、色彩に関する情報量は限定され、色彩に関する処理方法を改める必要がある。
RCCC画素配列のイメージセンサの車載カメラへの適用に関しては、特許文献1に記載されている。しかし、撮像した画像に対する処理についての具体的な記載は無い。
However, in the RCCC pixel array, which consists of two types of pixels, R (Red) and C (Clear), the three primary colors of R (Red), Green (Green), and Blue (Blue) are classified and the amount of light is detected. Compared to the pixel array, the amount of information about color is limited, and it is necessary to improve the processing method for color.
Application of an RCCC pixel array image sensor to an in-vehicle camera is described in Patent Document 1. However, there is no specific description of the processing of the captured image.

また、特許文献2も、R及びCの2種類からなる画素配列のイメージセンサの車載カメラへの適用に関して開示している。特許文献2では、自動車の赤色のテールランプと、ヘッドライト、街灯などの灯火の弁別に、イメージセンサの画像と、イメージセンサの画素種別Red/Clearに従うチェッカーボードパターンとの相関の大小を用いる。この手法においては、統計量である相関を用いるため、ある程度のまとまった画素数を有する画像領域に対して色相を判別することになる。このため、この領域内に異なる色相を有する物体が共存する場合には正確な判別結果が得られない。また、色相を判別する領域内に異なる色相のパターンが混在しないように領域を設定することは、形状の想定が可能である程度の大きさを有するパターンでないと困難である。このように、従来技術では、RCCC画素配列による色相の正確な判別は困難である。RCCC画素配列以外でも、2種類の画素からなる画素配列を有するイメージセンサにおいては、同様の問題が生じ得る。 Patent Document 2 also discloses application of an image sensor having a pixel array consisting of two types of R and C to an in-vehicle camera. In Patent Document 2, the magnitude of the correlation between the image of the image sensor and the checkerboard pattern according to the pixel type Red/Clear of the image sensor is used to discriminate between the red tail lamps of automobiles and lights such as headlights and street lights. In this method, since correlation, which is a statistical quantity, is used, the hue is determined for an image area having a certain number of pixels. For this reason, when objects having different hues coexist within this area, an accurate determination result cannot be obtained. Further, it is difficult to set a region in which patterns of different hues are not mixed in the region for determining the hue, unless the pattern has a certain size and the shape can be assumed. As described above, it is difficult for the prior art to accurately determine the hue by the RCCC pixel arrangement. A similar problem may occur in an image sensor having a pixel array consisting of two types of pixels other than the RCCC pixel array.

特開2017-046051号公報JP 2017-046051 A 米国特許出願公開第2007/0221822号明細書U.S. Patent Application Publication No. 2007/0221822

本発明は、2種類の画素を配列したイメージセンサを用いた場合において、所定の色相の弁別を正確に行うことができ、広画角化と空間解像度向上を両立させることが可能な撮像装置及び画像処理方法を提供することを目的とする。 The present invention provides an imaging apparatus that can accurately discriminate a predetermined hue when using an image sensor in which two types of pixels are arranged, and that can achieve both a wide angle of view and an improvement in spatial resolution. An object of the present invention is to provide an image processing method.

本発明の第1の態様に係る撮像装置は、可視域の第1の波長範囲の光を検出する第1の画素と、前記第1の波長範囲の光に加えて前記第1の波長範囲とは異なる可視光の波長の光を検出する第2の画素とを含むフィルタユニットを繰り返し配列して構成されるイメージセンサと、前記第1の画素の検出光量に基づき、前記第2の画素の位置を補間して得た第1の補間画像と、前記第2の画素の検出光量に基づき、前記第1の画素の位置を補間して得た第2の補間画像とを生成可能に構成された補間処理部と、前記第1の補間画像と前記第2の補間画像との同一位置の画素の組の検出光量に基づいて、該位置における色相を判定する色情報生成処理部とを備えたことを特徴とする。 An imaging device according to a first aspect of the present invention includes a first pixel that detects light in a first wavelength range in the visible region, and the first wavelength range in addition to the light in the first wavelength range. an image sensor configured by repeatedly arranging filter units including second pixels that detect light of different visible light wavelengths; and positions of the second pixels based on the amount of light detected by the first pixels. and a second interpolation image obtained by interpolating the position of the first pixel based on the amount of light detected by the second pixel. an interpolation processing unit; and a color information generation processing unit that determines a hue at the position based on the amount of light detected by a set of pixels at the same position in the first interpolation image and the second interpolation image. characterized by

本発明の第2の態様に係る撮像装置は、可視域の第1の波長範囲の光を検出する第1の画素と、前記第1の波長範囲の光に加えて前記第1の波長範囲とは異なる可視光の波長の光を検出する第2の画素とを含むフィルタユニットを繰り返し配列して構成されるイメージセンサと、前記第1の画素の検出光量に基づき、前記第2の画素の位置を補間して得た第1の補間画像と、前記第2の画素の検出光量に基づき、前記第1の画素の位置を補間して得た第2の補間画像とを生成可能に構成された補間処理部と、前記第1の補間画像及び前記第2の補間画像に基づきカラー画像を生成するカラー画像生成処理部とを備える。前記カラー画像生成処理部は、前記第1の補間画像に基づき、前記第1の波長範囲の第1の波長成分を有する第1成分画像を生成し、前記第1の補間画像と前記第2の補間画像の差である差画像を生成し、前記差画像に第1の配分比を乗算し、前記第1の波長範囲とは異なる第2の波長範囲の成分を有する第2成分画像を生成し、前記差画像に第2の配分比を乗算し、前記第1の波長範囲及び前記第2の波長範囲とは異なる第3の波長範囲の成分を有する第3成分画像を生成するよう構成される。 An imaging device according to a second aspect of the present invention includes a first pixel that detects light in a first wavelength range in the visible region, and the first wavelength range in addition to the light in the first wavelength range. an image sensor configured by repeatedly arranging filter units including second pixels that detect light of different visible light wavelengths; and positions of the second pixels based on the amount of light detected by the first pixels. and a second interpolation image obtained by interpolating the position of the first pixel based on the amount of light detected by the second pixel. An interpolation processing unit and a color image generation processing unit that generates a color image based on the first interpolation image and the second interpolation image. The color image generation processing unit generates a first component image having a first wavelength component in the first wavelength range based on the first interpolation image, and generates the first interpolation image and the second interpolation image. generating a difference image that is a difference between the interpolated images; multiplying the difference image by a first distribution ratio to generate a second component image having components in a second wavelength range different from the first wavelength range; and multiplying the difference image by a second allocation ratio to generate a third component image having components in a third wavelength range different from the first wavelength range and the second wavelength range. .

本発明に係る画像処理方法は、可視域の第1の波長範囲の光を検出する第1の画素と、前記第1の波長範囲の光に加えて前記第1の波長範囲とは異なる可視光の波長の光を検出する第2の画素とを含むフィルタユニットを繰り返し配列して構成されるイメージセンサから画像を取得するステップと、前記第1の画素の検出光量に基づき、前記第2の画素の位置を補間して第1の補間画像を取得するステップと、前記第2の画素の検出光量に基づき、前記第1の画素の位置を補間して第2の補間画像を取得するステップと、前記第1の補間画像と前記第2の補間画像との同一位置の画素の組の検出光量に基づいて、該位置における色相を判定するステップとを備える。 An image processing method according to the present invention includes: a first pixel for detecting light in a first wavelength range in the visible region; acquiring an image from an image sensor configured by repeatedly arranging filter units including a second pixel that detects light of a wavelength of , and based on the amount of light detected by the first pixel, the second pixel obtaining a first interpolated image by interpolating the positions of; obtaining a second interpolated image by interpolating the positions of the first pixels based on the amount of light detected by the second pixels; and determining a hue at the position based on the detected light amount of a set of pixels at the same position in the first interpolation image and the second interpolation image.

本発明によれば、2種類の画素を配列したイメージセンサを用いた場合において、所定の色相の弁別を正確に行うことができる撮像装置及び画像処理方法を提供することができ、広画角化と空間解像度向上を両立させることができる。 According to the present invention, it is possible to provide an imaging device and an image processing method capable of accurately discriminating a predetermined hue when using an image sensor in which two types of pixels are arranged, and widening the angle of view. and spatial resolution improvement can be compatible.

第1の実施の形態に係る撮像装置の基本構成の一例を説明する全体構成図である。1 is an overall configuration diagram illustrating an example of a basic configuration of an imaging device according to a first embodiment; FIG. RCCC画素配列のイメージセンサの画素配置を示した概略図である。1 is a schematic diagram showing a pixel arrangement of an image sensor with an RCCC pixel arrangement; FIG. RCCC画素配列のイメージセンサの、R画素、C画素の感度特性を示すグラフである。4 is a graph showing sensitivity characteristics of R pixels and C pixels of an image sensor having an RCCC pixel array; 補間処理部102での演算処理の一例を示した概略図である。4 is a schematic diagram showing an example of arithmetic processing in an interpolation processing unit 102; FIG. 道路標識で用いられる色を撮影したRCCC画像のC画素値とR画素値の実測特性例を示すグラフである。4 is a graph showing an example of measured characteristics of C pixel values and R pixel values of an RCCC image in which colors used in road signs are captured; 交通信号機で用いられる色を撮影したRCCC画像のC画素値とR画素値の実測特性例を示すグラフである。4 is a graph showing an example of measured characteristics of C pixel values and R pixel values of an RCCC image in which colors used in traffic lights are captured; イメージセンサ101で撮影した画像から色相情報を得るまでの手順を説明するフローチャートである。4 is a flowchart for explaining a procedure for obtaining hue information from an image captured by the image sensor 101. FIG. 図7のステップ704において、画素値の比(R/C比)に基づき色相を判別する手順の詳細を示したフローチャートである。FIG. 8 is a flow chart showing the details of the procedure for determining the hue based on the pixel value ratio (R/C ratio) in step 704 of FIG. 7; FIG. 第1の実施の形態において、イメージセンサ101で撮影したグレースケールの画像から、カラー画像生成処理部110においてカラー化した画像を生成する手順を示すフローチャートである。4 is a flowchart showing a procedure for generating a colorized image in a color image generation processing unit 110 from a grayscale image captured by the image sensor 101 in the first embodiment. G成分画像とB成分画像との配分比αの第1の例を説明する図(グラフ)である。FIG. 10 is a diagram (graph) for explaining a first example of a distribution ratio α between a G component image and a B component image; G成分画像とB成分画像との配分比αの第2の例を説明する図(グラフ)である。FIG. 11 is a diagram (graph) for explaining a second example of the allocation ratio α between the G component image and the B component image; 第2の実施の形態に係る撮像装置の基本構成の一例を説明する全体構成図である。FIG. 10 is an overall configuration diagram illustrating an example of the basic configuration of an imaging device according to a second embodiment; 図12の色情報生成テーブル1202の構成例を説明する概略図である。13 is a schematic diagram illustrating a configuration example of a color information generation table 1202 in FIG. 12; FIG. 第3の実施の形態に係る撮像装置の基本構成の一例を説明する全体構成図である。FIG. 11 is an overall configuration diagram illustrating an example of the basic configuration of an imaging device according to a third embodiment; 第3の実施の形態において、イメージセンサ101で撮影した画像から、カラー画像生成処理部110においてカラー化した画像を生成する手順を示すフローチャートである。11 is a flow chart showing a procedure for generating a colorized image in a color image generation processing unit 110 from an image captured by an image sensor 101 in the third embodiment. 第4の実施の形態のイメージセンサ101における画素配列(CyCCC配列)を説明する概略図である。FIG. 11 is a schematic diagram illustrating a pixel array (CyCCC array) in an image sensor 101 according to a fourth embodiment; CyCCC画素配列のイメージセンサの、Cy画素、C画素の感度特性を示すグラフである。4 is a graph showing sensitivity characteristics of Cy pixels and C pixels of an image sensor having a CyCCC pixel array;

以下、添付図面を参照して本発明の実施の形態を説明する。添付図面では、機能的に同じ要素は同じ番号で表示される場合もある。なお、添付図面は本開示の原理に則った実施形態と実装例を示しているが、これらは本開示の理解のためのものであり、決して本開示を限定的に解釈するために用いられるものではない。本明細書の記述は典型的な例示に過ぎず、本開示の特許請求の範囲又は適用例を如何なる意味においても限定するものではない。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. In the accompanying drawings, functionally identical elements may be labeled with the same numbers. It should be noted that although the attached drawings show embodiments and implementation examples in accordance with the principles of the present disclosure, they are for the purpose of understanding the present disclosure and are in no way used to interpret the present disclosure in a restrictive manner. is not. The description herein is merely exemplary and is not intended to limit the scope or application of this disclosure in any way.

本実施形態では、当業者が本開示を実施するのに十分詳細にその説明がなされているが、他の実装・形態も可能で、本開示の技術的思想の範囲と精神を逸脱することなく構成・構造の変更や多様な要素の置き換えが可能であることを理解する必要がある。従って、以降の記述をこれに限定して解釈してはならない。 Although the present embodiments are described in sufficient detail to enable those skilled in the art to practice the present disclosure, other implementations and configurations are possible without departing from the scope and spirit of the present disclosure. It is necessary to understand that it is possible to change the composition/structure and replace various elements. Therefore, the following description should not be construed as being limited to this.

[第1の実施の形態]
図1の全体構成図を参照して、第1の実施の形態に係る撮像装置の基本構成の一例を説明する。この撮像装置1は、イメージセンサ101、補間処理部102、色情報生成処理部103、認識処理部104、カラー画像生成処理部110、及び画像記録部112を有する。
[First embodiment]
An example of the basic configuration of the imaging device according to the first embodiment will be described with reference to the overall configuration diagram of FIG. This imaging apparatus 1 has an image sensor 101 , an interpolation processing unit 102 , a color information generation processing unit 103 , a recognition processing unit 104 , a color image generation processing unit 110 and an image recording unit 112 .

イメージセンサ101は、光画像を取得するためのCMOSセンサやCCDセンサなどのイメージセンサである。これらのイメージセンサは、平面上にアレイ状に配置されたフォトダイオードを有し、これらのフォトダイオードにより提供される複数画素により、平面上の光量分布を検出するよう構成されている。図示しないレンズやミラーなどの集光部材により合焦した光をイメージセンサ101で検出することにより、撮像対象の画像を得ることができる。 The image sensor 101 is an image sensor such as a CMOS sensor or a CCD sensor for acquiring optical images. These image sensors have photodiodes arranged in an array on a plane, and a plurality of pixels provided by these photodiodes are configured to detect the light quantity distribution on the plane. An image of an imaging target can be obtained by detecting light focused by a condensing member such as a lens or a mirror (not shown) with the image sensor 101 .

この第1の実施の形態の撮像装置1は、イメージセンサ101として、図2に示すRCCC画素配列のイメージセンサを利用する。RCCC画素配列は、可視域の光のうち赤色光を透過するカラーフィルタの光を受光し赤色光を検出可能とされたR(Red)画素201と、透明なカラーフィルタの光を受光し可視光全体の光量を検出可能とされたC(Clear)画素202の二種類の画素を有する。ひとつのR画素201と3つのC画素202からなる2×2画素のフィルタユニット203が複数行複数列に亘り繰り返し配置される。 The imaging apparatus 1 of the first embodiment uses an image sensor having the RCCC pixel array shown in FIG. 2 as the image sensor 101 . The RCCC pixel array includes an R (Red) pixel 201 that receives light from a color filter that transmits red light in the visible range and is capable of detecting red light, and a transparent color filter that receives light from a transparent color filter and receives visible light. It has two types of pixels, C (clear) pixels 202 that are capable of detecting the total amount of light. Filter units 203 of 2×2 pixels each including one R pixel 201 and three C pixels 202 are repeatedly arranged over multiple rows and multiple columns.

図3のグラフに示すように、R画素201は赤色光の波長域の光を受光可能とされており、一方、C画素203は青色光、緑色光、赤色光を含む可視光の波長域の全域の光を受光可能とされている。イメージセンサ101が出力する画像は、R画素201が検出した赤色光の光量に基づく画素値と、C画素202が検出した可視光全体の光量に基づく画素値が混在するグレースケール画像である。 As shown in the graph of FIG. 3, the R pixels 201 are capable of receiving light in the wavelength range of red light, while the C pixels 203 are capable of receiving light in the wavelength range of visible light including blue, green, and red light. Light can be received over the entire area. The image output by the image sensor 101 is a grayscale image in which pixel values based on the amount of red light detected by the R pixels 201 and pixel values based on the amount of all visible light detected by the C pixels 202 are mixed.

補間処理部102では、イメージセンサ101が出力したグレースケール画像に基づき、C画素202の位置の赤色光成分光量を、周囲のR画素201の検出光量から補間して求める。加えて、補間処理部102は、イメージセンサ101が出力したグレースケール画像に基づき、R画素201の位置の可視光全体の光量を周囲のC画素202の検出光量から補間して求める。 Based on the grayscale image output from the image sensor 101 , the interpolation processing unit 102 obtains the red light component light amount at the position of the C pixel 202 by interpolating from the detected light amount of the surrounding R pixels 201 . In addition, based on the grayscale image output from the image sensor 101 , the interpolation processing unit 102 interpolates the light amount of the entire visible light at the position of the R pixel 201 from the detected light amount of the surrounding C pixels 202 to obtain it.

補間処理部102の処理は、例えば図4に示す演算により実現することができる。図4に示す演算処理では、補間対象とする画素を中心とした3×3画素を処理単位としている。図2に示すRCCC画素配列を有するイメージセンサ101において補間処理を実行する場合、パターン1~パターン4の4通りの画素パターンに基づき補間処理を実行することができる。パターン1は、図2の右下の9つの画素が処理単位とされる場合であり、パターン2は、図2の左下の9つの画素が処理単位とされる場合であり、パターン3は、図2の右上の9つの画素が処理単位とされる場合であり、パターン4は、図2の左上の9つの画素が処理単位とされる場合を示している。 The processing of the interpolation processing unit 102 can be realized, for example, by the calculation shown in FIG. In the arithmetic processing shown in FIG. 4, the unit of processing is 3×3 pixels centering on the pixel to be interpolated. When performing interpolation processing in the image sensor 101 having the RCCC pixel array shown in FIG. 2, the interpolation processing can be performed based on four pixel patterns, pattern 1 to pattern 4. Pattern 1 is a case where the 9 pixels at the bottom right of FIG. Pattern 4 shows a case in which nine pixels at the upper left of FIG. 2 are used as a unit of processing.

パターン1~パターン4はいずれも、3×3画素の中心にある画素を補間処理の対象としている。例えば、パターン2~4では、中心にある画素がC画素202であるので、中心のC画素202におけるR成分の補間演算が行われる。一方、パターン1では、中心にある画素がR画素201であるので、中心のR画素201におけるC成分の補間演算が行われる。補間処理の対象の画素(3×3の中心)の補間演算は、その補間対象の画素の周囲にある画素の画素値に基づいて実行される。 Patterns 1 to 4 all target the pixel at the center of 3×3 pixels for interpolation processing. For example, in patterns 2 to 4, the center pixel is the C pixel 202, so the R component is interpolated at the center C pixel 202. FIG. On the other hand, in pattern 1, since the central pixel is the R pixel 201, the interpolation calculation of the C component in the central R pixel 201 is performed. Interpolation calculation of a pixel to be interpolated (center of 3×3 pixels) is performed based on pixel values of pixels surrounding the pixel to be interpolated.

パターン1では、3×3画素の中心のR画素201(R22)を補間処理の対象とし、そのC成分(C22)が、上下左右4つのC画素202の画素値に基づいて演算される(C22=(C12+C32+C12+C32)/4)。
パターン2では、C画素202(C22)が3×3画素の中心にあるので、そのR成分(R22)が、その左右2つのR画素201の画素値に基づいて演算される(R22=(R212+R23)/2)。
パターン3では、C画素202(C22)が3×3画素の中心にあり、そのR成分(R22)が、その上下2つのR画素201の画素値に基づいて演算される(R22=(R12+R32)/2)。
パターン4では、C画素202(C22)が3×3画素の中心にあり、そのR成分(R22)が、その上下左右4つのR画素201の画素値に基づいて演算される(R22=(R11+R13+R31+R33)/4)。
In pattern 1, the center R pixel 201 (R22) of 3×3 pixels is the object of interpolation processing, and its C component (C22) is calculated based on the pixel values of four C pixels 202 (C22 =(C12+C32+C12+C32)/4).
In pattern 2, since the C pixel 202 (C22) is at the center of the 3×3 pixels, its R component (R22) is calculated based on the pixel values of the two R pixels 201 on the left and right (R22=(R212+R23 )/2).
In pattern 3, the C pixel 202 (C22) is at the center of the 3×3 pixels, and its R component (R22) is calculated based on the pixel values of the two upper and lower R pixels 201 (R22=(R12+R32) /2).
In pattern 4, the C pixel 202 (C22) is at the center of the 3×3 pixels, and its R component (R22) is calculated based on the pixel values of the four R pixels 201 (R22=(R11+R13+R31+R33 )/4).

この演算は、図2の画素配列の場合に適合するものであり、異なる画素配列に対しては、上記と同趣旨の異なる演算が採用可能であることは言うまでもない。また、上記の補間演算は、周囲の画素値の平均値として実行されたが、撮像装置の要求性能や環境の状態等に応じて、異なる演算手法(例えば、加重平均)が採用可能であることは言うまでもない。 This calculation is suitable for the pixel array of FIG. 2, and it goes without saying that different calculations having the same effect as described above can be adopted for different pixel arrays. In addition, the above interpolation calculation was performed as the average value of the surrounding pixel values, but different calculation methods (for example, weighted averaging) can be adopted according to the required performance of the imaging device and the environmental conditions. Needless to say.

この処理を繰り返し行うことにより、赤色光の光量の空間分布を表す画像(R画像)と、これと同じ画素数を有する可視光全体の光量の空間分布を表す画像(C画像)を生成することができる。また、図4に示した処理に続いて、画像の歪を補正するための補間処理をR画像とC画像にさらに施してもよい。 By repeating this process, an image (R image) representing the spatial distribution of the light intensity of red light and an image (C image) representing the spatial distribution of the overall visible light intensity having the same number of pixels as the R image are generated. can be done. Further, following the processing shown in FIG. 4, interpolation processing for correcting image distortion may be further performed on the R image and the C image.

色情報生成処理部103は、補間処理部102で生成されたC画像とR画像とに基づいて、撮像画像の明度情報及び色相情報を認識処理部104へ出力する。認識処理部104は、この明度成分と色相成分とを参照して、交通信号機、道路標識、前方車両の灯火、路上の白色線、橙色線などを認識する。交通信号機等は色相が規定されている。例えば交通信号機の灯火は青緑色(シアン)、橙色、赤色の3色であり、道路標識は赤色、青色、白色、橙色が使われる割合が特に多い。また、車両の灯火については、テールランプとブレーキランプは赤色であり、ウィンカは橙色である。このため、認識処理部104は、これらの色を互いに弁別可能に構成される。 The color information generation processing unit 103 outputs lightness information and hue information of the captured image to the recognition processing unit 104 based on the C image and the R image generated by the interpolation processing unit 102 . The recognition processing unit 104 refers to the lightness component and the hue component to recognize traffic signals, road signs, lights of vehicles ahead, white lines on the road, orange lines, and the like. Hue is defined for traffic lights and the like. For example, traffic lights have three colors of blue-green (cyan), orange, and red, and road signs often use red, blue, white, and orange. As for the lights of the vehicle, the tail lamp and the brake lamp are red, and the winker is orange. Therefore, the recognition processing unit 104 is configured to be able to distinguish these colors from each other.

色情報生成処理部103は、撮像画像の明度情報を、例えば補間処理部102で生成されたC画像に基づいて演算することができる。 The color information generation processing unit 103 can calculate the lightness information of the captured image based on the C image generated by the interpolation processing unit 102, for example.

色情報生成処理部103は、内部にR/C値比較処理部105を有している。R/C値比較処理部105は、補間処理部102からC画像とR画像を受信し、当該C画像とR画像の同一位置に配置された画素に関し、R成分の検出光量とC成分の検出光量との比(R/C比)を演算する。そして、R/C値比較処理部105は、このR/C比を弁別対象の色の基準値をそれぞれ比較して色相を判別し、その判別結果を色相情報として出力する。 The color information generation processing unit 103 has an R/C value comparison processing unit 105 inside. The R/C value comparison processing unit 105 receives the C image and the R image from the interpolation processing unit 102, and detects the detected light amount of the R component and the detection of the C component with respect to the pixels arranged at the same position in the C image and the R image. A ratio (R/C ratio) to the amount of light is calculated. Then, the R/C value comparison processing unit 105 compares the R/C ratio with the reference value of the color to be discriminated to discriminate the hue, and outputs the discrimination result as hue information.

本実施の形態では、上記の交通信号機、道路標識、前方走行車、及び路面の線を認識することを想定し、赤色判定基準値記憶部106、橙色判定基準値記憶部107、無彩色判定基準値記憶部108、青・緑判定基準値記憶部109の4つが備えられている。これら記憶部に記憶されている4つの基準値が、前記のR/C比と比較される。なお、交通信号機の青緑色(シアン)と道路標識の青色の色相は異なるが、明るさや存在する位置で区別可能であり、これらの色相を一括して青・緑として扱う。 In the present embodiment, assuming recognition of traffic lights, road signs, vehicles traveling ahead, and lines on the road surface, red determination reference value storage unit 106, orange determination reference value storage unit 107, A value storage unit 108 and a blue/green determination reference value storage unit 109 are provided. The four reference values stored in these storage units are compared with the R/C ratio. Although the hues of blue-green (cyan) of traffic lights and blue of road signs are different, they can be distinguished by their brightness and their positions, and these hues are collectively treated as blue and green.

カラー画像生成処理部110は、補間処理部102で生成したC画像とR画像を用いて画像をカラー化し、三原色に対応したR(Red)成分画像とG(Green)成分画像とB(Blue)成分画像とを生成して出力する。画像記録部112は、カラー画像生成処理部110で生成したR(Red)成分画像とG(Green)成分画像とB(Blue)成分画像とを蓄積する部位であり、フラッシュメモリやハードディスク、DRAMなどで構成される。この第1の実施の形態のカラー画像生成処理部110は、入力されたR画像をR成分画像として画像記録部112へ出力すると共に、内部にC-R画像生成処理部111を有する。G成分画像、B成分画像としては、C-R画像生成処理部111でC画像とR画像の各画素の差分値を求めて生成したC-R画像に基づく画像を出力する。 A color image generation processing unit 110 colorizes an image using the C image and the R image generated by the interpolation processing unit 102, and converts an R (Red) component image, a G (Green) component image, and a B (Blue) component image corresponding to the three primary colors. Generate and output a component image. The image recording unit 112 stores the R (Red) component image, the G (Green) component image, and the B (Blue) component image generated by the color image generation processing unit 110. The image recording unit 112 stores the R (Red) component image, the G (Green) component image, and the B (Blue) component image. consists of The color image generation processing unit 110 of the first embodiment outputs the input R image to the image recording unit 112 as an R component image, and has a CR image generation processing unit 111 inside. As the G component image and the B component image, an image based on the CR image generated by calculating the difference value between each pixel of the C image and the R image in the CR image generation processing unit 111 is output.

図5は、道路標識で用いられる色を撮影したRCCC画像のC画素値とR画素値の実測特性例である。より具体的には、カラーチャート(X-Rite社 Colorchecker SG(登録商標))を、5通りの明るさの白色光下で、RCCC画素配列のイメージセンサを搭載したカメラで撮影した結果としての実測特性例である。C画像とR画像とは、前述の補間処理の結果として得られたものである。図5のグラフは、道路標識で用いるJIS Z9103で規定された安全色の基準色に近い部位を、上記カラーチャート中から抜き出して(例えば、赤[行3列L]・橙[行6列L]・黄[行4列H]・白(無彩色)[行6列J]・青[行3列F])、C画素202の検出光量とR画素201の検出光量の関係をプロットしたものである。 FIG. 5 shows an example of measured characteristics of C pixel values and R pixel values of an RCCC image obtained by photographing colors used in road signs. More specifically, the color chart (X-Rite Colorchecker SG (registered trademark)) was photographed under white light with five levels of brightness using a camera equipped with an RCCC pixel array image sensor. This is an example of characteristics. The C image and the R image are obtained as a result of the interpolation processing described above. The graph in FIG. 5 shows parts close to the standard colors of safety colors specified in JIS Z9103 used for road signs, extracted from the above color chart (for example, red [row 3, column L], orange [row 6, column L ]・Yellow [row 4, column H]・white (achromatic) [row 6, column J]・blue [row 3, column F]) Plotting the relationship between the amount of light detected by the C pixel 202 and the amount of light detected by the R pixel 201 is.

図5において、符号501及び502は、赤色の部位の画素に基づくプロットと、最小二乗法で求めた赤色光に対するC対R特性をそれぞれ表す。また、符号503及び504は、橙色の部位に基づくプロットと最小二乗法で求めた橙色光に対するC対R特性をそれぞれ表す。符号505及び506は、黄色の部位に基づくプロットと最小二乗法で求めた黄色光に対するC対R特性をそれぞれ表す。符号507及び508は、白色(無彩色)の部位に基づくプロットと最小二乗法で求めた無彩色光に対するC対R特性をそれぞれ表す。509と510は青色の部位に基づくプロットを表す。これらのデータから、各色に対するR画素の検出光量とC画素の検出光量の比(R/C)は明るさによらず一定であると共に、車載カメラでの運転支援のために道路標識などの認識対象で参照する赤・橙・黄・白(無彩色)・青の各色については異なる比となることから、R/Cに基づきこれらの色相を区分可能であることが理解される。 In FIG. 5, reference numerals 501 and 502 denote plots based on the pixels in the red portion and C vs. R characteristics for red light determined by the least squares method, respectively. Also, reference numerals 503 and 504 represent the C vs. R characteristics for orange light determined by the plot based on the orange portion and the least squares method, respectively. Reference numerals 505 and 506 represent the C vs. R characteristics for yellow light determined by the plot based on the yellow area and the least squares method, respectively. Reference numerals 507 and 508 represent plots based on white (achromatic) parts and C vs. R characteristics for achromatic light determined by the least-squares method, respectively. 509 and 510 represent the blue site-based plots. From these data, the ratio of the amount of light detected by the R pixel to the amount of light detected by the C pixel (R/C) for each color is constant regardless of the brightness, and recognition of road signs etc. for driving support with the in-vehicle camera Since each color of red, orange, yellow, white (achromatic color), and blue referred to in the object has a different ratio, it is understood that these hues can be classified based on R/C.

図6は、交通信号機で用いられる色を撮影したRCCC画像のC画素値とR画素値の実測特性例である。この図6も、上述のカラーチャートを5通りの明るさの白色光下でRCCC画素配列のイメージセンサを搭載したカメラで撮影した結果としての実測特性例である。図6は、交通信号機で用いる色に近い部位(赤[行3列L]・橙[行6列L]・シアン[行8列B])を抜き出して、C画素の検出光量とR画素の検出光量の関係をプロットしたものである。符号501及び502、符号503及び504は、図5と同様であるので重複する説明を省略する。図6において、符号601と602はシアン色の部位に基づくプロットと最小二乗法で求めた黄色光に対するC対R特性をそれぞれ表す。これらのデータから、信号の色も、図5と同様に色相の弁別が可能である。 FIG. 6 is an example of measured characteristics of C pixel values and R pixel values of an RCCC image obtained by photographing colors used in traffic lights. This FIG. 6 is also an example of actual measurement characteristics as a result of photographing the color chart described above under white light of five brightness levels with a camera equipped with an image sensor having an RCCC pixel array. FIG. 6 extracts parts close to the colors used in traffic lights (red [row 3, column L], orange [row 6, column L], cyan [row 8, column B]), and shows the detected light amount of the C pixel and the R pixel. It plots the relationship between the amounts of detected light. Reference numerals 501 and 502, and reference numerals 503 and 504 are the same as those in FIG. 5, so overlapping descriptions will be omitted. In FIG. 6, reference numerals 601 and 602 represent the C vs. R characteristics for yellow light determined by the plot based on the cyan color portion and the least squares method, respectively. From these data, it is possible to discriminate the color of the signal as well as the hue in the same manner as in FIG.

図7はイメージセンサ101で撮影した画像から色相情報を得るまでの手順を説明するフローチャートであり、図1のイメージセンサ101、補間処理部102、及び色情報生成処理部103で実行される処理である。 FIG. 7 is a flowchart for explaining the procedure for obtaining hue information from an image captured by the image sensor 101. The process executed by the image sensor 101, the interpolation processing unit 102, and the color information generation processing unit 103 in FIG. be.

まずステップ701でイメージセンサ101により画像が撮像・取得される。この取得された画像は、図2に示したRCCC画素配列のイメージセンサ101のR画素201が検出した赤色光の光量に基づく画素値と、C画素202が検出した可視光全体の光量に基づく画素値とが混在したグレースケール画像である。 First, in step 701, an image is picked up by the image sensor 101 and acquired. This acquired image has pixel values based on the amount of red light detected by the R pixels 201 of the image sensor 101 having the RCCC pixel array shown in FIG. It is a grayscale image with mixed values.

続くステップ702では、ステップ701で得たグレースケールの画像の各画素位置に対して前述の補間処理が実行され、R画像及びC画像が生成される。そして、ステップ703では、同一画素位置のR画像の画素値とC画像の画素値の比(R/C比)を求められ、ステップ704において、R/C比の値に基づき色相が判別される。 At subsequent step 702, the above-described interpolation processing is executed for each pixel position of the grayscale image obtained at step 701 to generate an R image and a C image. Then, in step 703, the ratio (R/C ratio) between the pixel value of the R image and the pixel value of the C image at the same pixel position is obtained, and in step 704, the hue is discriminated based on the value of the R/C ratio. .

図8は、ステップ704において、画素値の比(R/C比)に基づき色相を判別する手順の詳細を示したフローチャートである。図8において、Trは、赤色と判別するためのR/C比の下限値、Toは橙色と判別するためのR/C比の下限値、Tyは黄色と判別するためのR/C比の下限値、Tgは無彩色(白色、灰色、黒色)と判別するためのR/C比の下限値をそれぞれ示す。 FIG. 8 is a flow chart showing the details of the procedure for determining the hue based on the pixel value ratio (R/C ratio) in step 704 . In FIG. 8, Tr is the lower limit of the R/C ratio for distinguishing red, To is the lower limit of the R/C ratio for distinguishing orange, and Ty is the R/C ratio for distinguishing yellow. The lower limit value and Tg indicate the lower limit value of the R/C ratio for discriminating achromatic colors (white, gray, black), respectively.

ステップ801では、R/C比の値と下限値Trとが比較される。R/C>Trであれば(Yes)、当該画素の色相が赤色と判断される。R/C≦Trであれば(No)、ステップ802に進む。 At step 801, the value of the R/C ratio is compared with the lower limit Tr. If R/C>Tr (Yes), the hue of the pixel is determined to be red. If R/C≤Tr (No), the process proceeds to step 802 .

ステップ802では、R/C比の値と下限値Toとが比較される。R/C>Toであれば(Yes)、当該画素の色相が橙色と判断される。R/C≦Toであれば(No)、ステップ803に進む。 At step 802, the value of the R/C ratio is compared with the lower limit value To. If R/C>To (Yes), the hue of the pixel is determined to be orange. If R/C.ltoreq.To (No), go to step 803;

ステップ803では、R/C比の値と下限値Tyとが比較される。R/C>Tyであれば(Yes)、当該画素の色相が黄色と判断される。R/C≦Tyであれば(No)、ステップ804に進む。 At step 803, the value of the R/C ratio is compared with the lower limit value Ty. If R/C>Ty (Yes), the hue of the pixel is determined to be yellow. If R/C≤Ty (No), go to step 804 .

ステップ804では、R/C比の値と下限値Tgが比較される。R/C>Tgであれば(Yes)、当該画素の色相が無彩色(白色、灰色、黒色)と判断される。 At step 804, the value of the R/C ratio and the lower limit Tg are compared. If R/C>Tg (Yes), the hue of the pixel is determined to be achromatic (white, gray, black).

ステップS801~804でいずれも「No」の判断がなされると、当該画素の色相は青又は緑色と判断される。以上により、ステップS704の判別手順が終了する。 If all of steps S801 to S804 result in "No", the hue of the pixel is determined to be blue or green. Thus, the determination procedure of step S704 is completed.

図9は、イメージセンサ101で撮影したグレースケールの画像から、カラー画像生成処理部110においてカラー化した画像を生成する手順を示すフローチャートである。 FIG. 9 is a flowchart showing a procedure for generating a colorized image in the color image generation processing unit 110 from a grayscale image captured by the image sensor 101 .

図7と同様にして、ステップ701と702において、イメージセンサ101によりグレースケールの画像を撮像・取得した後、グレースケールの画像の各画素位置に対して前述の補間処理が実行され、R画像及びC画像が生成される。 Similarly to FIG. 7, in steps 701 and 702, after the image sensor 101 captures and acquires a grayscale image, the above-described interpolation processing is executed for each pixel position of the grayscale image, and the R image and A C image is generated.

続くステップ901では、生成されたC画像の画素値とR画像の画素値の差画像(C-R画像)がC-R画像生成処理部111において生成される。また、ステップ902では、C-R画像の画素値に配分比α(0≦α≦1)を乗算して得られる画像(α(C-R))がC-R画像生成処理部111において生成され、G成分画像とされる。 In the subsequent step 901 , the CR image generation processing unit 111 generates a difference image (CR image) between the pixel values of the generated C image and the pixel value of the R image. In step 902, the CR image generation processing unit 111 generates an image (α(CR)) obtained by multiplying the pixel values of the CR image by the distribution ratio α (0≦α≦1). to be a G component image.

更に、ステップ903では、C-R画像の画素値を(1-α)倍した画像((1-α)(C-R))がC-R画像生成処理部111において生成され、B成分画像とされる。配分比αは、差画像(C-R)に含まれるG成分画像の割合を示す値である。以下において、αを「第1の配分比」、(1-α)を「第2の配分比」と称することがある。 Further, in step 903, an image obtained by multiplying the pixel value of the CR image by (1-α) ((1-α)(CR)) is generated in the CR image generation processing unit 111, and the B component image It is said that The distribution ratio α is a value indicating the proportion of the G component image included in the difference image (CR). Hereinafter, α may be referred to as "first allocation ratio" and (1-α) as "second allocation ratio".

ステップ902でG成分画像に与える画素値α(C-R)と、ステップ903でB成分画像に与える画素値(1-α)(C-R)の和はC-Rである。換言すれば、第1の配分比αと、第2の配分比(1-α)の和は1である。図3に示したR画素201とC画素202の波長-感度特性の関係において、C画素202が感度を有する波長域が、R画素201と比較してG成分とB成分の分だけ広く、C画素202とR画素201の検出光量がG成分とB成分の和だけ大きいと見積もられるため、上記のような関係が成立する。なお、得られたR成分画像、G成分画像、B成分画像に、さらに図示しない各成分の明るさを増減する処理を加算することも可能である。 The sum of the pixel value α(CR) given to the G component image in step 902 and the pixel value (1−α)(CR) given to the B component image in step 903 is CR. In other words, the sum of the first distribution ratio α and the second distribution ratio (1−α) is one. In the relationship between the wavelength-sensitivity characteristics of the R pixel 201 and the C pixel 202 shown in FIG. Since the amount of light detected by the pixel 202 and the R pixel 201 is estimated to be greater by the sum of the G component and the B component, the above relationship is established. It is also possible to add processing for increasing/decreasing the brightness of each component (not shown) to the obtained R component image, G component image, and B component image.

図10は、G成分画像とB成分画像との配分比αの第1の例を説明する図(グラフ)である。図10のグラフにおいて、縦軸はR/C比の値(0以上1以下)を示し、横軸はG成分画像とB成分画像の和(G+B)に対するG成分画像の比、すなわち第1の配分比α(0以上1以下)を示している。このグラフは、縦軸と横軸で示される空間内における各色相の概略分布を点線で示している。 FIG. 10 is a diagram (graph) for explaining a first example of the distribution ratio α between the G component image and the B component image. In the graph of FIG. 10, the vertical axis indicates the value of the R/C ratio (0 or more and 1 or less), and the horizontal axis indicates the ratio of the G component image to the sum (G+B) of the G component image and the B component image, that is, the first A distribution ratio α (0 or more and 1 or less) is shown. In this graph, dotted lines indicate the approximate distribution of each hue within the space indicated by the vertical and horizontal axes.

図10に示すように、R/C比の値の大小のみをファクターとした場合、当該画素が赤色であるか、シアン又は灰色であるかを判別することはできる。しかし、R/C比のみでは、図10のグラフ中で横方向に並ぶ色相は判別することはできない。例えば、青、シアン、緑を互いに判別することはできない。また、桃色と黄色(又は橙色)も、R/C比の大小のみでは判別することはできない。 As shown in FIG. 10, if only the magnitude of the R/C ratio is used as a factor, it is possible to determine whether the pixel is red, cyan, or gray. However, the hues arranged in the horizontal direction in the graph of FIG. 10 cannot be discriminated only by the R/C ratio. For example, blue, cyan, and green cannot be distinguished from each other. Also, pink and yellow (or orange) cannot be distinguished only by the magnitude of the R/C ratio.

図10では、αの値を0.5に固定した場合の色相の判別を説明している。すなわち、図10において、軌跡1001はR/C比の変化を示しており、R/C比によらずα=0.5に固定している。R/C比が0から1に向けて上昇するにつれて、当該画素の色相は、順にシアン、無彩色、桃色と橙色の中間色、赤色のように変化する。第1の実施の形態の撮像装置を車載カメラに適用した場合、特に晴天の空の色や青信号(シアン)、路面や白線の色(無彩色)、赤信号や車両のテールランプ(赤色)が特に良く再現される。従って、RCCC画素配列のイメージセンサ101に基づき、視感上の違和感の小さいカラー化した画像を得ることが可能である。 FIG. 10 illustrates determination of hue when the value of α is fixed at 0.5. That is, in FIG. 10, a locus 1001 indicates changes in the R/C ratio, and α is fixed at 0.5 regardless of the R/C ratio. As the R/C ratio increases from 0 to 1, the hue of the pixel changes sequentially from cyan, achromatic, intermediate between pink and orange, and red. When the image capturing apparatus of the first embodiment is applied to an on-vehicle camera, the color of the sky on a clear sky and the green light (cyan), the color of the road surface and the white line (achromatic color), the red light and the tail lamp of the vehicle (red) are particularly well reproduced. Therefore, based on the image sensor 101 having the RCCC pixel array, it is possible to obtain a colorized image with little visual discomfort.

図11は、G成分画像とB成分画像との配分比αの第2の例を説明する図(グラフ)である。図10との相違は、少なくともR/C比が所定の範囲にある場合、R/C比の変化に従って、配分比αが変化するよう、配分比αを変動させる点である。撮像装置1が車載カメラとして使用された場合、その撮像画像において桃色よりも橙色が現れる頻度が高いことに鑑みたものである。 FIG. 11 is a diagram (graph) for explaining a second example of the distribution ratio α between the G component image and the B component image. The difference from FIG. 10 is that, at least when the R/C ratio is within a predetermined range, the distribution ratio α is varied in accordance with changes in the R/C ratio so that the distribution ratio α changes. This is because, when the imaging apparatus 1 is used as an in-vehicle camera, orange appears more frequently than pink in the captured image.

図11の軌跡1101は、R/C比の変化を示している。この図11では、R/C比が、例えば第1の値より小さい値のとき(例えばR/C<0.25)は、配分比αを一定値(例えばα=0.5)に固定する。一方R/C比が第1の値以上第2の値以下である場合には、R/C比が大きくなるほど配分比αも大きくされる。そして、R/C比が第2の値より大きい場合(例えばR/C>0.75)には、配分比αを一定値(例えばα=1)に固定する。この軌跡1101を示す関数は、カラー画像生成処理部110内の、図示しない記憶部に記憶させておくことができる。なお、この図11の軌跡1101はあくまでも一例であって、軌跡1101の形状は、適宜変更可能であることは言うまでもない。 Trace 1101 in FIG. 11 shows the change in R/C ratio. In FIG. 11, when the R/C ratio is smaller than the first value (for example, R/C<0.25), the distribution ratio α is fixed at a constant value (for example, α=0.5). . On the other hand, when the R/C ratio is greater than or equal to the first value and less than or equal to the second value, the distribution ratio α is increased as the R/C ratio increases. Then, when the R/C ratio is larger than the second value (for example, R/C>0.75), the distribution ratio α is fixed at a constant value (for example, α=1). A function indicating the trajectory 1101 can be stored in a storage unit (not shown) in the color image generation processing unit 110 . The locus 1101 in FIG. 11 is merely an example, and it goes without saying that the shape of the locus 1101 can be changed as appropriate.

この軌跡1101のように配分比αをR/C比の増加に応じて変化させた場合、R/C比が小さい段階(α=0.5)では、当該画素の色相は、シアン又は灰色と判定することができる。一方、R/C比が第1の値以上第2の値以下となった場合には、R/C比が増加するにつれて配分比αが増加する。これにより、上記R/C比の画素に対し割り当てられる色相はシアン~無彩~橙色~赤色と変化する。撮像装置1を車載カメラとして使用した場合、特に晴天の空の色や青信号(シアン)、路面や白線の色(無彩色)、赤信号やテールランプの(赤色)が特に良く再現される。加えて、図10の例と比較して路面の橙色線、黄信号、ウィンカなどの色の再現度を改善することができる。 When the distribution ratio α is changed in accordance with an increase in the R/C ratio as shown by the locus 1101, the hue of the pixel is cyan or gray when the R/C ratio is small (α=0.5). can judge. On the other hand, when the R/C ratio is greater than or equal to the first value and less than or equal to the second value, the distribution ratio α increases as the R/C ratio increases. As a result, the hue assigned to the pixels with the above R/C ratio changes from cyan to achromatic to orange to red. When the imaging device 1 is used as an in-vehicle camera, the colors of the clear sky and green traffic lights (cyan), road surfaces and white lines (achromatic colors), and red traffic lights and tail lamps (red) are reproduced particularly well. In addition, compared to the example of FIG. 10, it is possible to improve the reproducibility of colors such as orange lines on the road surface, yellow traffic lights, blinkers, and the like.

なお、図11の軌跡1101は、R/C比が0から1に変化する全体に亘って連続した曲線となるよう設定されるのが好適である。軌跡1101が不連続な曲線となると、不連続天付近において色相の変化が大きくなり、雑音が大きくなる問題が発生するためである。 Note that the locus 1101 in FIG. 11 is preferably set so as to form a continuous curve throughout the R/C ratio changing from 0 to 1. This is because if the locus 1101 becomes a discontinuous curve, the change in hue becomes large in the vicinity of the discontinuous sky, causing a problem of increased noise.

以上説明したように、第1の実施の形態に係る撮像装置1及び画像処理方法によれば、RCCC画素配列のような2種類の画素を有するイメージセンサを適用した場合であっても、所定の色相の弁別を正確に行うことが可能になる。RCCC画素配列の場合、RGGB画素配列に比べ、広画角化と空間解像度向上を両立することが可能になるが、色彩に関し得られる情報は通常、限定される。しかし、この第1の実施の形態では、RGGB配列のイメージセンサを適用した撮像装置と同様に、対象物の色彩を反映した画像を生成できる効果が得られる。 As described above, according to the imaging device 1 and the image processing method according to the first embodiment, even when an image sensor having two types of pixels such as an RCCC pixel array is applied, a predetermined It becomes possible to accurately discriminate hues. In the case of the RCCC pixel array, it is possible to achieve both a wide angle of view and an improvement in spatial resolution compared to the RGGB pixel array, but the information that can be obtained regarding color is usually limited. However, in the first embodiment, it is possible to generate an image that reflects the color of the object, as in the case of the imaging apparatus using the RGGB array image sensor.

なお、第1の実施の形態ではRCCC画素配列の例を示したが、赤色のカラーフィルタを有する画素と透明のカラーフィルタを有する画素の二種類からなる画素配列であれば、画素数の割合は1:3でなくともよい。また、車載カメラ用途として赤色の対象(交通信号機、テールランプ、標識)に対する認識精度に比重をおくため、赤色のカラーフィルタを有する画素と透明のカラーフィルタを有する画素の二種類とする実施の形態を示したが、用途に応じて赤色ではないカラーフィルタを有する画素と透明のカラーフィルタを有する画素との組にしてもよい。 In the first embodiment, an example of the RCCC pixel array is shown. It does not have to be 1:3. In addition, in order to emphasize the accuracy of recognizing red objects (traffic lights, tail lights, and signs) as an on-vehicle camera application, an embodiment in which two types of pixels, one having a red color filter and the other having a transparent color filter, is used. Although shown, pixels having non-red color filters and pixels having transparent color filters may be paired depending on the application.

[第2の実施の形態]
次に、図12及び図13を参照して、第2の実施の形態に係る撮像装置及び画像処理方法を説明する。図12は、第2の実施の形態の撮像装置の全体構成を示すブロック図である。図12において、第1の実施の形態の装置と共通する構成部材については図1と同一の参照符号を付しているので、以下では重複する説明は省略する。
[Second embodiment]
Next, an imaging device and an image processing method according to the second embodiment will be described with reference to FIGS. 12 and 13. FIG. FIG. 12 is a block diagram showing the overall configuration of an imaging device according to the second embodiment. In FIG. 12, the same reference numerals as in FIG. 1 denote the same constituent members as in the apparatus of the first embodiment, and duplicate descriptions will be omitted below.

第2の実施の形態は、色情報生成処理部103の構成において第1の実施の形態と異なっている。この第2の実施の形態の色情報生成処理部103は、アドレス生成部1201と、色情報生成テーブル1202とを備えている。 The second embodiment differs from the first embodiment in the configuration of the color information generation processing unit 103. FIG. The color information generation processing section 103 of the second embodiment includes an address generation section 1201 and a color information generation table 1202 .

アドレス生成部1201はC画像、R画像を入力されて、対応するアドレス信号を出力するよう構成されている。具体的にアドレス生成部1201は、入力されたC画像及びR画像の同一画素位置の画素の値の組に対応するアドレス信号を生成し、色情報生成テーブル1202に出力する。 The address generator 1201 is configured to receive the C image and the R image and output corresponding address signals. Specifically, the address generation unit 1201 generates an address signal corresponding to a set of pixel values at the same pixel position in the input C image and R image, and outputs the address signal to the color information generation table 1202 .

色情報生成テーブル1202は、アドレス信号と、そのアドレス信号に対応する明度情報と色相情報とをテーブルとして記憶する。そして、色情報生成テーブル1202は、アドレス生成部1201から入力されたアドレス情報に基づき、対応する明度情報と色相情報を特定して出力する。 The color information generation table 1202 stores address signals, and lightness information and hue information corresponding to the address signals as a table. Based on the address information input from the address generation unit 1201, the color information generation table 1202 specifies and outputs the corresponding lightness information and hue information.

色情報生成テーブル1202は、例えば図13に示すデータ構造を適用する。図13の例において、アドレス生成部1201から供給されるアドレス信号は、アドレスを{R、C}のようにR画素値とC画素値の値を上位側ビットと下位側ビットに連接することで生成したものを適用するように割当てると共に、対応するデータとして、そのアドレスに相当するR画素値、C画素値によるR/C比に対応した色相情報を格納する。このような構成によれば、複雑な演算を要することなく、簡便に色相情報を生成可能である。 For the color information generation table 1202, for example, the data structure shown in FIG. 13 is applied. In the example of FIG. 13, the address signal supplied from the address generation unit 1201 is obtained by concatenating the R pixel value and the C pixel value to the upper bit and the lower bit, such as {R, C}. The generated data is assigned to be applied, and hue information corresponding to the R/C ratio by the R pixel value and C pixel value corresponding to the address is stored as corresponding data. According to such a configuration, it is possible to easily generate hue information without requiring complicated calculations.

また、この第2の実施の形態では、R/C比による色相区分だけでなく、C画素値のレベルによる明度区分も加えた色彩情報を生成することも容易に行うことができる。さらに、C画素値のレベルに合わせて、R/C比の値の区分の閾値や、区分の数を変えるなど、複雑な色彩情報の判定を行うことが可能になる効果も得られる。 In addition, in the second embodiment, it is possible to easily generate color information in which not only the hue division by the R/C ratio but also the brightness division by the level of the C pixel value is added. In addition, it is possible to determine complex color information by changing the threshold value for the division of the R/C ratio value and the number of divisions according to the level of the C pixel value.

[第3の実施の形態]
次に、図14及び図15を参照して、第3の実施の形態に係る撮像装置及び画像処理方法を説明する。図14は、第3の実施の形態の撮像装置の全体構成を示すブロック図である。図13おいて、第1の実施の形態の装置と共通する構成部材については図1と同一の参照符号を付しているので、以下では重複する説明は省略する。
[Third embodiment]
Next, an imaging device and an image processing method according to the third embodiment will be described with reference to FIGS. 14 and 15. FIG. FIG. 14 is a block diagram showing the overall configuration of an imaging device according to the third embodiment. In FIG. 13, the same reference numerals as in FIG. 1 are given to the constituent members that are common to the apparatus of the first embodiment, and redundant description will be omitted below.

この第3の実施の形態の撮像装置は、カラー画像生成処理部110の構成が第1の実施の形態とは異なっている。この第3の実施の形態のカラー画像生成処理部110は、画素の検出光量が上限値を超過した場合においても視覚上違和感の少ないカラー画像を得ることができるよう構成されている。前述の実施の形態の撮像装置での画像生成処理では、画素の検出光量が上限を超えず飽和していないケースにおいては適切なカラー画像が得られるが、飽和した箇所においては現実よりも赤みがかった色相となる。これは、飽和した箇所においてはC画素値とR画素値の差が現実よりも小さくなり、G成分とB成分に与える値が相対的に小さくなるためである。第3の実施の形態では、この現象を効果的に抑制することができる。 The imaging apparatus according to the third embodiment differs from that according to the first embodiment in the configuration of the color image generation processing section 110 . The color image generation processing unit 110 of the third embodiment is configured to obtain a visually pleasing color image even when the amount of light detected by the pixels exceeds the upper limit. In the image generation processing in the imaging apparatus of the above-described embodiment, an appropriate color image can be obtained in the case where the amount of light detected by the pixels does not exceed the upper limit and is not saturated. becomes hue. This is because the difference between the C pixel value and the R pixel value becomes smaller than the actual value in the saturated portion, and the values given to the G component and the B component become relatively small. This phenomenon can be effectively suppressed in the third embodiment.

図14に示すように、第3の実施の形態のカラー画像生成処理部110は、第1の実施の形態と同様のC-R画像生成処理部111に加え、明度飽和画素判定処理部1401、飽和画素置換処理部1402、R成分明度補正部1403、G成分明度補正部1404、及びB成分明度補正部1405を備える。R成分明度補正部1403、G成分明度補正部1404、及びB成分明度補正部1405は、全体として明度補正部を構成する。 As shown in FIG. 14, the color image generation processing unit 110 of the third embodiment includes a CR image generation processing unit 111 similar to that of the first embodiment, a brightness saturated pixel determination processing unit 1401, A saturated pixel replacement processing unit 1402 , an R component brightness correction unit 1403 , a G component brightness correction unit 1404 and a B component brightness correction unit 1405 are provided. The R component brightness correction unit 1403, the G component brightness correction unit 1404, and the B component brightness correction unit 1405 constitute a brightness correction unit as a whole.

C-R画像生成処理部111の機能は第1の実施の形態(図1)と同様である。明度飽和画素判定処理部1401は、C画像中の画素の検出光量が上限値を超過した場合、当該画素は明度が飽和画素であると判定する。なお、検出光量が上限値は超過していないが、上限値の近傍の明度を有する画素を、飽和画素であると判定するような構成とすることも可能である。 The functions of the CR image generation processing unit 111 are the same as in the first embodiment (FIG. 1). When the detected light amount of a pixel in the C image exceeds the upper limit, the brightness saturated pixel determination processing unit 1401 determines that the pixel is a brightness saturated pixel. It should be noted that it is also possible to adopt a configuration in which a pixel having a brightness near the upper limit, although the amount of detected light does not exceed the upper limit, is determined to be a saturated pixel.

飽和画素置換処理部1402は、明度飽和画素判定処理部1401での判定結果に基づき、明度が飽和したと判定された画素に対して、R成分、G成分、又はB成分の明度を、対応する上限値に切替えて出力する。つまり、飽和画素置換処理部1402は、飽和した画素が白色として扱われるように、各成分値を上限値に差し替える機能を有する。 The saturated pixel replacement processing unit 1402 replaces the brightness of the R component, the G component, or the B component with the pixel determined to be saturated in brightness based on the determination result of the saturated brightness pixel determination processing unit 1401. Output by switching to the upper limit value. That is, the saturated pixel replacement processing unit 1402 has a function of replacing each component value with an upper limit value so that a saturated pixel is treated as white.

飽和画素置換処理部1402には、R画像の画素の明度が、R成分明度補正部1403により補正された後に入力される。同様に、飽和画素置換処理部1402には、G画像及びB画像の画素の明度が、G成分明度補正部1404及びB成分明度補正部1405によりそれぞれ補正された後に入力される。 The saturated pixel replacement processing unit 1402 receives the R image pixel brightness after being corrected by the R component brightness correction unit 1403 . Similarly, the saturated pixel replacement processing unit 1402 receives the pixel brightness of the G image and the B image after being corrected by the G component brightness correcting unit 1404 and the B component brightness correcting unit 1405, respectively.

R成分とG成分とB成分の各々に、8Byte(255bit)が割り当てられている場合、明るさを表すRGBの合計値は、白色に対して255×3=765bitとなる。
一方、C-R画像生成処理部111に入力されるC画像にも同様に255bitが割り当てられていて、ビット数として3倍の違いがある。
When 8 bytes (255 bits) are assigned to each of the R component, the G component, and the B component, the total value of RGB representing brightness is 255×3=765 bits for white.
On the other hand, 255 bits are also assigned to the C image input to the CR image generation processing unit 111, and there is a threefold difference in the number of bits.

このため、C-R画像生成処理部111の出力をそのまま飽和画素置換処理部1402に入力すると、飽和していない画素の上限の明るさと、飽和して上限値に調整された画素の明るさで3倍程度の明るさの段差が生じ、視感上違和感が大きい画像となる。そこで、この第3の実施の形態のカラー画像生成処理部110は、R成分明度補正部1403、G成分明度補正部1404、及びB成分明度補正部1405を備え、各成分の明度を明度が大となる方向へ補正した上で、飽和画素置換処理部1402へ供給する。一例として、R成分明度補正部1403、G成分明度補正部1404、及びB成分明度補正部1405での補正量βは、1以上の値であり、好適にはβ≒3とすることができる。β倍に調整されたR成分画像、G成分画像、及びB成分画像の明度が各上限値を超えた場合は、当該上限値となるように飽和画素置換処理部1402において調整すればよい。 Therefore, if the output of the CR image generation processing unit 111 is directly input to the saturated pixel replacement processing unit 1402, the maximum brightness of the non-saturated pixels and the brightness of the saturated pixels adjusted to the upper limit value can be used. A step of about three times the brightness is generated, resulting in an image with a large visual sense of incongruity. Therefore, the color image generation processing unit 110 of the third embodiment includes an R component brightness correction unit 1403, a G component brightness correction unit 1404, and a B component brightness correction unit 1405, and increases the brightness of each component. After correcting in the direction of , it is supplied to the saturated pixel replacement processing unit 1402 . As an example, the correction amount β in the R component brightness correction unit 1403, the G component brightness correction unit 1404, and the B component brightness correction unit 1405 is a value of 1 or more, preferably β≈3. If the lightness of the R component image, the G component image, and the B component image adjusted to β times exceeds the respective upper limits, the saturated pixel replacement processing unit 1402 may adjust the lightness so as to reach the upper limits.

図15はイメージセンサ101で撮影した画像から、カラー画像生成処理部110においてカラー化した画像を生成する手順を示すフローチャートである。ステップ701、702、703、901、902、903は、図9と同様であるので、重複する説明は省略する。 FIG. 15 is a flow chart showing the procedure for generating a colorized image in the color image generation processing unit 110 from the image captured by the image sensor 101 . Steps 701, 702, 703, 901, 902, and 903 are the same as in FIG. 9, so duplicate descriptions will be omitted.

ステップ903の後のステップ1501では、明度飽和画素判定処理部1401において、C画像中の飽和画素(上限値以上、又はその近傍の明度を有する画素)の存在と、その位置が判別される。 In step 1501 after step 903, the brightness saturation pixel determination processing unit 1401 determines the presence and position of saturated pixels (pixels having brightness equal to or greater than the upper limit value) in the C image.

続くステップ1502は、R成分明度補正部1403、G成分明度補正部1404、及びB成分明度補正部1405において、R成分画像、G成分画像、B成分画像の画素値(明度)をβ倍(β≧1)する。これにより、飽和画素が白色に置き換えられた場合の明るさの段差が軽減される。 In the subsequent step 1502, the pixel values (brightness) of the R component image, the G component image, and the B component image are multiplied by β (β ≧1). This reduces a step in brightness when a saturated pixel is replaced with white.

そして、ステップ1503では、飽和画素の位置のR成分画像、G成分画像、B成分画像の画素値が、各上限値に置換される。このステップ1503により、画素値が飽和して擬似的に赤色成分が強く表示されてしまう箇所が、白色で置き換えられる。以上に示した装置構成ならびに処理方法によれば、第1の実施の形態で示した効果に加えて、さらに画素の検出光量が上限値を超過した場合においても視覚上違和感の少ないカラー画像を得る効果が得られる。 Then, in step 1503, the pixel values of the R component image, the G component image, and the B component image at the position of the saturated pixel are replaced with the respective upper limit values. By this step 1503, the portions where the pixel values are saturated and the pseudo red component is strongly displayed are replaced with white. According to the device configuration and the processing method described above, in addition to the effects described in the first embodiment, a color image with little visual discomfort can be obtained even when the amount of light detected by the pixels exceeds the upper limit. effect is obtained.

[第4の実施の形態]
次に、図16及び図17を参照して、第4の実施の形態に係る撮像装置及び画像処理方法を説明する。図16に示すように、この第4の実施の形態では、イメージセンサ101が、RCCC画素配列とは異なる画素配列を有している。このイメージセンサ101では、1つのフィルタユニット203は、赤色の補色であるシアン色を検出するCy画素1601と、C画素202の二種類の画素を有し、ひとつのCy画素1601と3つのC画素202からなる2×2画素のフィルタユニット203を複数行複数列に亘り繰り返す画素配置(CyCCC画素配置)である。
[Fourth embodiment]
Next, an imaging device and an image processing method according to the fourth embodiment will be described with reference to FIGS. 16 and 17. FIG. As shown in FIG. 16, in this fourth embodiment, the image sensor 101 has a pixel array different from the RCCC pixel array. In this image sensor 101, one filter unit 203 has two types of pixels: a Cy pixel 1601 for detecting cyan, which is a complementary color of red, and a C pixel 202. One Cy pixel 1601 and three C pixels 202 is a pixel arrangement (CyCCC pixel arrangement) in which the 2×2 pixel filter units 203 are repeated over a plurality of rows and a plurality of columns.

図17に示すように、Cy画素1601は、青色光と緑色光に対して感度を有する。C画像とCy画像の差画像(C-Cy)はR画像となる。このようにして得られたC画像、及びR画像に対し、第1の実施の形態と同様の処理を実行することで、第1の実施の形態と同様の効果を得ることができる。Cy画素1601は青色光と緑色光に感度を有しているため、イメージセンサ101の緑色光及び青色光に対する感度がRCCC画素配列に比べ向上する。白色光がイメージセンサ101に入射した場合、R画素201と比較して大きい光量が検出されるので、さまざまな色相の被写体を含む画像全体の傾向として、Cy画素1601はR画素201よりも高いS/N比を与えることができ、結果として色相の判別の精度が第1の実施の形態に比べ改善することが期待できる。 As shown in FIG. 17, Cy pixels 1601 are sensitive to blue and green light. A difference image (C-Cy) between the C image and the Cy image is the R image. By performing the same processing as in the first embodiment on the C image and the R image thus obtained, the same effect as in the first embodiment can be obtained. Since the Cy pixels 1601 are sensitive to blue light and green light, the sensitivity of the image sensor 101 to green light and blue light is improved compared to the RCCC pixel arrangement. When white light is incident on the image sensor 101, a large amount of light is detected as compared to the R pixel 201. Therefore, the Cy pixel 1601 tends to have a higher S value than the R pixel 201 as a whole image including subjects of various hues. /N ratio can be given, and as a result, it can be expected that the accuracy of hue determination is improved compared to the first embodiment.

尚、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。 It should be noted that the present invention is not limited to the above-described embodiments, and includes various modifications. For example, the above-described embodiments have been described in detail in order to explain the present invention in an easy-to-understand manner, and are not necessarily limited to those having all the described configurations. In addition, it is possible to replace part of the configuration of one embodiment with the configuration of another embodiment, and it is also possible to add the configuration of another embodiment to the configuration of one embodiment. Moreover, it is possible to add, delete, or replace a part of the configuration of each embodiment with another configuration.

101…イメージセンサ、102…補間処理部、103…色情報生成処理部、104…認識処理部、110…カラー画像生成処理部、111…C-R画像生成処理部、112…画像記録部、201…R画素、202…C画素、203…フィルタユニット、1201…アドレス生成部、1202…色情報生成テーブル、1401…明度飽和画素判定処理部、1402…飽和画素置換処理部、1403…R成分明度補正部、1404…G成分明度補正部、1405…B成分明度補正部、1601…Cy画素。 DESCRIPTION OF SYMBOLS 101... Image sensor 102... Interpolation process part 103... Color information generation process part 104... Recognition process part 110... Color image generation process part 111... CR image generation process part 112... Image recording part 201 R pixel 202 C pixel 203 filter unit 1201 address generation unit 1202 color information generation table 1401 saturated brightness pixel determination processing unit 1402 saturated pixel replacement processing unit 1403 R component brightness correction 1404...G component brightness correction section 1405...B component brightness correction section 1601...Cy pixel.

Claims (10)

可視域の第1の波長範囲の光を検出する第1の画素と、前記第1の波長範囲の光に加えて前記第1の波長範囲とは異なる可視光の波長の光を検出する第2の画素とを含むフィルタユニットを繰り返し配列して構成されるイメージセンサと、
前記第1の画素の検出光量に基づき、前記第2の画素の位置を補間して得た第1の補間画像と、前記第2の画素の検出光量に基づき、前記第1の画素の位置を補間して得た第2の補間画像とを生成可能に構成された補間処理部と、
前記第1の補間画像と前記第2の補間画像との同一位置の画素の組の検出光量に基づいて、該位置における色相を判定する色情報生成処理部と
を備え
前記第1の補間画像及び前記第2の補間画像に基づきカラー画像を生成するカラー画像生成処理部を更に備え、
前記カラー画像生成処理部は、
前記第1の補間画像に基づき、前記第1の波長範囲の第1の波長成分を有する第1成分画像を生成し、
前記第1の補間画像と前記第2の補間画像の差である差画像を生成し、
前記差画像に第1の配分比を乗算し、前記第1の波長範囲とは異なる第2の波長範囲の成分を有する第2成分画像を生成し、
前記差画像に第2の配分比を乗算し、前記第1の波長範囲及び前記第2の波長範囲とは異なる第3の波長範囲の成分を有する第3成分画像を生成するよう構成されたことを特徴とする、撮像装置。
A first pixel that detects light in a first wavelength range in the visible region, and a second pixel that detects light in a visible light wavelength different from the first wavelength range in addition to light in the first wavelength range. an image sensor configured by repeatedly arranging filter units including pixels of
A first interpolated image obtained by interpolating the position of the second pixel based on the amount of light detected by the first pixel, and the position of the first pixel based on the amount of light detected by the second pixel an interpolation processing unit configured to generate a second interpolated image obtained by interpolation;
a color information generation processing unit that determines a hue at the position based on the amount of light detected by a set of pixels at the same position in the first interpolation image and the second interpolation image ,
A color image generation processing unit that generates a color image based on the first interpolation image and the second interpolation image,
The color image generation processing unit
generating a first component image having a first wavelength component in the first wavelength range based on the first interpolated image;
generating a difference image that is the difference between the first interpolated image and the second interpolated image;
multiplying the difference image by a first allocation ratio to generate a second component image having components in a second wavelength range different from the first wavelength range;
configured to multiply the difference image by a second allocation ratio to generate a third component image having components in a third wavelength range different from the first wavelength range and the second wavelength range. An imaging device characterized by:
前記色情報生成処理部は、前記第1の補間画像及び前記第2の補間画像の同一位置の画素の組の検出光量の比に基づいて、該位置における色相を判定する、請求項1に記載の撮像装置。 2. The color information generation processing unit according to claim 1, wherein the color information generation processing unit determines the hue at the position based on the ratio of the amount of light detected by a set of pixels at the same position in the first interpolated image and the second interpolated image. imaging device. 前記第1の配分比又は前記第2の配分比は、前記第1の補間画像及び前記第2の補間画像の同一位置の画素の組の検出光量の比の変化に拘わらず、一定値とされる、請求項に記載の撮像装置。 The first distribution ratio or the second distribution ratio is set to a constant value regardless of a change in the ratio of the detected light amounts of the sets of pixels at the same position in the first interpolated image and the second interpolated image. 2. The imaging device according to claim 1 , wherein: 前記第1の配分比又は前記第2の配分比は、前記第1の補間画像及び前記第2の補間画像の同一位置の画素の組の検出光量の比の変化に従って変化する、請求項に記載の撮像装置。 2. The method according to claim 1 , wherein said first distribution ratio or said second distribution ratio changes according to a change in a ratio of amounts of light detected by a set of pixels at the same position in said first interpolated image and said second interpolated image. The imaging device described. 前記第1の画素は赤色光を検出可能な画素であり、前記第2の画素は赤色光、緑色光、及び青色光を検出可能な画素である、請求項1又は2に記載の撮像装置。 3. The imaging device according to claim 1 , wherein the first pixels are pixels capable of detecting red light, and the second pixels are pixels capable of detecting red light, green light, and blue light. 前記第1の画素は青色光及び緑色光を検出可能な画素であり、
前記第2の画素は赤色光、緑色光、及び青色光を検出可能な画素である、請求項1又は2に記載の撮像装置。
the first pixel is a pixel capable of detecting blue light and green light;
3. The imaging device according to claim 1 , wherein said second pixel is a pixel capable of detecting red light, green light and blue light.
可視域の第1の波長範囲の光を検出する第1の画素と、前記第1の波長範囲の光に加えて前記第1の波長範囲とは異なる可視光の波長の光を検出する第2の画素とを含むフィルタユニットを繰り返し配列して構成されるイメージセンサから画像を取得するステップと、
前記第1の画素の検出光量に基づき、前記第2の画素の位置を補間して第1の補間画像を取得するステップと、
前記第2の画素の検出光量に基づき、前記第1の画素の位置を補間して第2の補間画像を取得するステップと、
前記第1の補間画像と前記第2の補間画像との同一位置の画素の組の検出光量に基づいて、該位置における色相を判定するステップと
を含み
前記第1の補間画像及び前記第2の補間画像に基づきカラー画像を生成するステップを更に備え、
前記カラー画像を生成するステップは、
前記第1の補間画像に基づき、前記第1の波長範囲の第1の波長成分を有する第1成分画像を生成し、
前記第1の補間画像と前記第2の補間画像の差である差画像を生成し、
前記差画像に第1の配分比を乗算し、前記第1の波長範囲とは異なる第2の波長範囲の成分を有する第2成分画像を生成し、
前記差画像に第2の配分比を乗算し、前記第1の波長範囲及び前記第2の波長範囲とは異なる第3の波長範囲の成分を有する第3成分画像を生成する、画像処理方法。
A first pixel that detects light in a first wavelength range in the visible region, and a second pixel that detects light in a visible light wavelength different from the first wavelength range in addition to light in the first wavelength range. acquiring an image from an image sensor comprising a repetitive array of filter units including pixels of
obtaining a first interpolated image by interpolating the positions of the second pixels based on the amount of light detected by the first pixels;
obtaining a second interpolated image by interpolating the position of the first pixel based on the amount of light detected by the second pixel;
Determining the hue at the position based on the detected light amount of the set of pixels at the same position in the first interpolated image and the second interpolated image ,
further comprising generating a color image based on the first interpolated image and the second interpolated image;
The step of generating the color image includes:
generating a first component image having a first wavelength component in the first wavelength range based on the first interpolated image;
generating a difference image that is the difference between the first interpolated image and the second interpolated image;
multiplying the difference image by a first allocation ratio to generate a second component image having components in a second wavelength range different from the first wavelength range;
An image processing method comprising: multiplying the difference image by a second distribution ratio to generate a third component image having components in a third wavelength range different from the first wavelength range and the second wavelength range .
前記色相を判定するステップは、前記第1の補間画像及び前記第2の補間画像の同一位置の画素の組の検出光量の比に基づいて該位置における色相を判定する、請求項に記載の画像処理方法。 8. The method according to claim 7 , wherein the step of determining the hue determines the hue at the position based on a ratio of amounts of light detected by a set of pixels at the same position in the first interpolated image and the second interpolated image. Image processing method. 前記第1の配分比又は前記第2の配分比は、前記第1の補間画像及び前記第2の補間画像の同一位置の画素の組の検出光量の比の変化に拘わらず、一定値とされる、請求項に記載の画像処理方法。 The first distribution ratio or the second distribution ratio is set to a constant value regardless of a change in the ratio of the detected light amounts of the sets of pixels at the same position in the first interpolated image and the second interpolated image. 8. The image processing method according to claim 7 , wherein 前記第1の配分比又は前記第2の配分比は、前記第1の補間画像及び前記第2の補間画像の同一位置の画素の組の検出光量の比の変化に従って変化する、請求項に記載の画像処理方法。 8. The method according to claim 7 , wherein said first distribution ratio or said second distribution ratio changes according to a change in a ratio of amounts of light detected by a set of pixels at the same position in said first interpolated image and said second interpolated image. The described image processing method.
JP2019060777A 2019-03-27 2019-03-27 Imaging device and image processing method Active JP7116001B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019060777A JP7116001B2 (en) 2019-03-27 2019-03-27 Imaging device and image processing method
CN202080017627.1A CN113574851B (en) 2019-03-27 2020-02-27 Image pickup apparatus and image processing method
PCT/JP2020/008036 WO2020195515A1 (en) 2019-03-27 2020-02-27 Imaging device and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019060777A JP7116001B2 (en) 2019-03-27 2019-03-27 Imaging device and image processing method

Publications (2)

Publication Number Publication Date
JP2020162034A JP2020162034A (en) 2020-10-01
JP7116001B2 true JP7116001B2 (en) 2022-08-09

Family

ID=72609045

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019060777A Active JP7116001B2 (en) 2019-03-27 2019-03-27 Imaging device and image processing method

Country Status (3)

Country Link
JP (1) JP7116001B2 (en)
CN (1) CN113574851B (en)
WO (1) WO2020195515A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022215234A1 (en) 2021-04-08 2022-10-13 株式会社ソシオネクスト Image processing device and image processing method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009290795A (en) 2008-05-30 2009-12-10 Sharp Corp Image processor, image processing method, image processing program, recording medium, and electronic information device
JP2013197670A (en) 2012-03-16 2013-09-30 Ricoh Co Ltd Imaging device, object detection device, vehicle travel support image processing system, and vehicle
JP2015008391A (en) 2013-06-25 2015-01-15 キヤノン株式会社 Image processing apparatus, image processing method, and image processing program
JP2016111647A (en) 2014-12-10 2016-06-20 株式会社日本自動車部品総合研究所 Image processing apparatus and lane borderline recognition system
JP2017046051A (en) 2015-08-24 2017-03-02 株式会社デンソー On-vehicle camera device

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4630105A (en) * 1984-07-31 1986-12-16 Rca Corporation Symmetric color encoding shift pattern for a solid-state imager camera and decoding scheme therefor
EP1524625A2 (en) * 2003-10-17 2005-04-20 Matsushita Electric Industrial Co., Ltd. Enhancement of interpolated image
JP2006135564A (en) * 2004-11-05 2006-05-25 Casio Comput Co Ltd Pixel interpolation device and pixel interpolation method
JP4726065B2 (en) * 2006-01-11 2011-07-20 株式会社山武 Edge detection method and edge detection apparatus
CN104067611B (en) * 2012-01-24 2016-08-24 索尼公司 Image processing equipment, image processing method and image processing apparatus
CN106999019B (en) * 2014-11-19 2018-10-19 奥林巴斯株式会社 Image processing device, image processing method, recording medium, and endoscope device
JP2016132533A (en) * 2015-01-20 2016-07-25 株式会社栗本鐵工所 Conveying device
JP6732282B2 (en) * 2016-06-03 2020-07-29 株式会社永木精機 Coated wire stripping device and coated wire stripping method
US11172172B2 (en) * 2016-12-30 2021-11-09 Texas Instruments Incorporated Efficient and flexible color processor

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009290795A (en) 2008-05-30 2009-12-10 Sharp Corp Image processor, image processing method, image processing program, recording medium, and electronic information device
JP2013197670A (en) 2012-03-16 2013-09-30 Ricoh Co Ltd Imaging device, object detection device, vehicle travel support image processing system, and vehicle
JP2015008391A (en) 2013-06-25 2015-01-15 キヤノン株式会社 Image processing apparatus, image processing method, and image processing program
JP2016111647A (en) 2014-12-10 2016-06-20 株式会社日本自動車部品総合研究所 Image processing apparatus and lane borderline recognition system
JP2017046051A (en) 2015-08-24 2017-03-02 株式会社デンソー On-vehicle camera device

Also Published As

Publication number Publication date
CN113574851A (en) 2021-10-29
JP2020162034A (en) 2020-10-01
CN113574851B (en) 2023-02-07
WO2020195515A1 (en) 2020-10-01

Similar Documents

Publication Publication Date Title
JP5668951B2 (en) Image input device
US9906766B2 (en) Imaging device
US9626570B2 (en) Vehicle control system and image sensor
US9171215B2 (en) Image processing device
US10368063B2 (en) Optical test device for a vehicle camera and testing method
US9319647B2 (en) Image processing device
US10567724B2 (en) Dynamic demosaicing of camera pixels
EP3343912B1 (en) Imaging device
US20100166305A1 (en) Method for detecting and correcting chromatic aberration, and apparatus and method for processing image using the same
US8817140B2 (en) Camera set-up and method for ascertaining picture signals having color values
US9131199B2 (en) Imaging apparatus capable of generating an appropriate color image
JP5750291B2 (en) Image processing device
JP7116001B2 (en) Imaging device and image processing method
JP2012008845A (en) Image processor
TW202133601A (en) A low-light imaging system
CN107896321A (en) Imaging sensor
JP5803505B2 (en) Video processing device
JP6717660B2 (en) Imaging device
US20140333806A1 (en) Method and device for adapting a filter property of an adaptive color filter and for operating an imager
JP2019212937A (en) Image display device and image display method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210319

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220629

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220712

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220728

R150 Certificate of patent or registration of utility model

Ref document number: 7116001

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250