[go: up one dir, main page]

JP2013187573A - Vehicle periphery monitoring apparatus - Google Patents

Vehicle periphery monitoring apparatus Download PDF

Info

Publication number
JP2013187573A
JP2013187573A JP2012048637A JP2012048637A JP2013187573A JP 2013187573 A JP2013187573 A JP 2013187573A JP 2012048637 A JP2012048637 A JP 2012048637A JP 2012048637 A JP2012048637 A JP 2012048637A JP 2013187573 A JP2013187573 A JP 2013187573A
Authority
JP
Japan
Prior art keywords
image
pixel
color
light receiving
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012048637A
Other languages
Japanese (ja)
Inventor
Mitsuhiko Adachi
允彦 安達
Tadahiko Kano
忠彦 加納
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2012048637A priority Critical patent/JP2013187573A/en
Publication of JP2013187573A publication Critical patent/JP2013187573A/en
Pending legal-status Critical Current

Links

Landscapes

  • Color Television Image Signal Generators (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

【課題】車両の周辺を撮像するカメラの撮影対象に、輝度差の大きい物体が混在していても、それらの物体の適切な画像を得ることを可能とする車両周辺監視装置を提供する。
【解決手段】車両周辺監視装置は、車両の周辺を撮影するためのカメラ2として、カラー映像の組成色となる所定の複数種の色のうちの各種類の色の光をそれぞれ受光する複数のカラー受光画素(R受光画素、G受光画素及びB受光画素)と、カラー受光画素よりも低い受光感度で所定色の光を受光する複数の副受光画素(Rx受光画素)とを配列してなる撮像素子22を有するカメラを備える。
【選択図】図2
Provided is a vehicle periphery monitoring device that makes it possible to obtain appropriate images of objects even if objects with a large luminance difference are mixed in a subject to be captured by a camera that captures the periphery of the vehicle.
A vehicle periphery monitoring device, as a camera 2 for photographing the periphery of a vehicle, receives a plurality of colors of light of each of a plurality of predetermined colors as composition colors of a color image. Color light receiving pixels (R light receiving pixels, G light receiving pixels, and B light receiving pixels) and a plurality of sub light receiving pixels (Rx light receiving pixels) that receive light of a predetermined color with light receiving sensitivity lower than that of the color light receiving pixels are arranged. A camera having an image sensor 22 is provided.
[Selection] Figure 2

Description

本発明は、車両の周辺のカラー映像を撮像可能なカメラを備える車両周辺監視装置に関する。   The present invention relates to a vehicle periphery monitoring device including a camera capable of capturing a color image around a vehicle.

カラー映像を撮像可能なカメラを車両に搭載し、該カメラの撮像画像(カラー画像)を基に、車両の周辺の状況を監視することで、運転者に対する注意喚起等の運転支援を行なうようにした車両周辺監視装置が従来より知られている。   A camera capable of capturing a color image is mounted on a vehicle, and driving assistance such as alerting the driver is performed by monitoring the situation around the vehicle based on an image (color image) captured by the camera. Such a vehicle periphery monitoring device is conventionally known.

例えば特許文献1には、カメラによる自車両前方の撮像画像(カラー画像)を基に、自車両前方に存在する前走車のブレーキランプの点灯(赤色の点灯)を検知することで前走車の制動状態を認識し、該前走車の制動状態に応じて、適宜、運転者の注意を喚起する報知を行なうものが提案されている。   For example, Patent Document 1 discloses that a preceding vehicle is detected by detecting the lighting (red lighting) of a brake lamp of a preceding vehicle existing ahead of the host vehicle based on a captured image (color image) in front of the host vehicle. Has been proposed that recognizes the braking state of the vehicle and appropriately notifies the driver of the vehicle according to the braking state of the preceding vehicle.

なお、車両に搭載される、カラー映像を撮像可能なカメラは、通常、R(赤)、G(緑)、B(青)の3原色のうちの各種類の色の光をそれぞれカラーフィルタを介して受光可能な複数のカラー受光画素(詳しくはRの光を受光可能な受光画素とGの光を受光可能な受光画素とBの光を受光可能な受光画素との組)を、ベイヤー配列等の所定の配列パターンで縦横に配列して構成される撮像素子を有する。そして、撮像素子の各受光画素の位置の画素におけるR、G、Bの各色の階調値を、所謂デモザイキング処理により補間的に決定することで、カラー画像が生成される。   In addition, a camera mounted on a vehicle and capable of capturing a color image usually has a color filter for each type of light of the three primary colors R (red), G (green), and B (blue). A plurality of color light receiving pixels (specifically, a set of a light receiving pixel capable of receiving R light, a light receiving pixel capable of receiving G light, and a light receiving pixel capable of receiving B light) arranged in a Bayer array It has an image sensor that is arranged vertically and horizontally in a predetermined arrangement pattern such as. Then, a color image is generated by interpolating the gradation values of the R, G, and B colors in the pixel at the position of each light receiving pixel of the image sensor by so-called demosaicing processing.

特公平6−10839号公報Japanese Patent Publication No. 6-10839

ところで、車両の周辺を監視するためのカメラの撮像素子に投影される物体の明るさ(輝度)は、一般に千差万別であり、明るさの大きく異なるものが混在する場合が多い。例えば、夜間においては、対向車のヘッドライトや前走車の制動時のテールライト、あるいは、信号機の点灯ランプ等の高輝度の自発光物体は、その周囲の道路構造物等に比して格段に明るいものとなりやすい。   By the way, the brightness (brightness) of an object projected on an image sensor of a camera for monitoring the periphery of a vehicle is generally various, and there are many cases where objects with greatly different brightness are mixed. For example, at night, high-luminance self-luminous objects such as headlights of oncoming vehicles, taillights when braking the preceding vehicle, or lighting lamps of traffic lights are markedly higher than the surrounding road structures. It tends to be bright.

一方、車両と外部の物体との接触の回避や、車両の運転の支援等を目的としてカメラの撮像画像を用いて車両の周辺を監視する場合、一般には、対向車のヘッドライト等の高輝度の自発光物体の画像だけでなく、路面や歩行者等の比較的低輝度の物体の画像を取得することも必要となる。   On the other hand, when monitoring the surroundings of a vehicle using a captured image of a camera for the purpose of avoiding contact between the vehicle and an external object or assisting driving of the vehicle, generally high brightness such as a headlight of an oncoming vehicle In addition to the self-luminous object image, it is also necessary to acquire an image of a relatively low-luminance object such as a road surface or a pedestrian.

このため、従来の車両周辺監視装置のカメラの露出の度合いは、路面や歩行者等の比較的低輝度の物体の画像も得られるように設定しておくことが一般的である。   For this reason, the degree of exposure of the camera of the conventional vehicle periphery monitoring device is generally set so that an image of a relatively low-luminance object such as a road surface or a pedestrian can be obtained.

しかるに、この場合、カメラの撮像データ(撮像素子の各受光画素の出力信号)から得られるカラー画像等の撮像画像においては、上記自発光物体が投影される箇所及びその周辺の箇所の階調値が飽和した状態(所謂、白とび状態)となりやすい。ひいては、撮像画像において、自発光物体とその周囲の物体との区別がつかない(画像上の輝度や色の違いが生じない)ものとなったり、該自発光物体の発光色が不明なものとなり易い。   However, in this case, in the captured image such as a color image obtained from the image data of the camera (the output signal of each light receiving pixel of the image sensor), the gradation values of the location where the self-luminous object is projected and the surrounding locations. Tends to be saturated (so-called whiteout state). As a result, in the captured image, the self-luminous object and its surrounding objects cannot be distinguished (no difference in brightness or color on the image), or the light emission color of the self-luminous object is unknown. easy.

さらには、車両の左右のヘッドライトや、左右のテールライトのように、2つの自発光光源が互いに近接しているような場合には、それらの自発光物体の画像近辺の白とび状態の箇所がひと塊につながってしまうというような場合もある。   Furthermore, when two self-luminous light sources are close to each other, such as left and right headlights and left and right taillights of a vehicle, a spot in the whiteout state near the image of those self-luminous objects In some cases, it will lead to a lump.

従って、従来の車両周辺監視装置では、カメラの撮像画像から、車両のヘッドライトやテールライト、信号機の点灯ランプ等の高輝度の自発光物体の色やその存在箇所を、その周辺の他の物体と区別して認識することが困難となる場合が多い。ひいては、車両の周辺に存在する他車両や、信号機等の物体をカメラの撮像画像から正しく認識することが困難となるという不都合があった。   Therefore, in the conventional vehicle periphery monitoring device, the color of a high-luminance self-luminous object such as a headlight or taillight of a vehicle, a lighting lamp of a traffic light, or the location thereof is determined from the captured image of the camera by other objects in the vicinity. In many cases, it is difficult to recognize them separately. As a result, there is an inconvenience that it is difficult to correctly recognize other vehicles existing around the vehicle and objects such as traffic lights from the captured image of the camera.

本発明はかかる背景に鑑みてなされたものであり、車両の周辺を撮像するカメラの撮影対象に、輝度差の大きい物体が混在していても、それらの物体の適切な画像を得ることを可能とする車両周辺監視装置を提供することを目的とする。   The present invention has been made in view of such a background, and even when objects having a large luminance difference are mixed in a photographing object of a camera that captures the periphery of a vehicle, it is possible to obtain an appropriate image of those objects. An object of the present invention is to provide a vehicle periphery monitoring device.

本発明の車両周辺監視装置は、かかる目的を達成するために、車両の周辺を撮影するために該車両に搭載されたカメラとして、カラー映像の組成色となる所定の複数種の色のうちの各種類の色の光をそれぞれ受光する複数のカラー受光画素と、該カラー受光画素よりも低い受光感度で所定色の光を受光する複数の副受光画素とを配列してなる撮像素子を有するカメラを備えることを特徴とする(第1発明)。   In order to achieve such an object, the vehicle periphery monitoring device of the present invention is a camera mounted on the vehicle for photographing the periphery of the vehicle. A camera having an imaging device in which a plurality of color light receiving pixels that receive light of each type of color and a plurality of sub light receiving pixels that receive light of a predetermined color with a light receiving sensitivity lower than that of the color light receiving pixels (First invention).

なお、第1発明において、上記「複数のカラー受光画素」は、前記所定の複数種の色を、第1〜第NのN種類の色としたとき、当該「複数のカラー受光画素」のそれぞれが第1〜第Nの色のうちのいずれか1つの色の光を受光する受光画素であり、且つ、第1〜第Nの全ての色に対応する受光画素を含む受光画素群を意味する。また、ある色の光というのは、ある特定の波長帯域の光(又は、ある特定の波長帯域を主成分とする光)を意味する。   In the first aspect of the present invention, the “plurality of color light-receiving pixels” are defined as the “plurality of color light-receiving pixels” when the predetermined plural kinds of colors are the first to Nth N colors. Means a light receiving pixel that receives light of any one of the first to Nth colors and includes light receiving pixels corresponding to all the first to Nth colors. . Moreover, the light of a certain color means light of a specific wavelength band (or light having a specific wavelength band as a main component).

この第1発明によれば、前記カメラの撮像素子には、前記複数のカラー受光画素に加えて、該カラー受光画素よりも低い受光感度で所定色の光を受光する複数の副受光画素が含まれる。この場合、各副受光画素は、カラー受光画素よりも受光感度が低いため、カメラの撮影対象に、カラー受光画素の出力信号(カラー受光画素がその受光レベルに応じて出力する信号)の強度が飽和を生じるような、相対的に高輝度の物体が含まれていても、該高輝度の物体の光を受光する副受光画素では、その出力信号(副受光画素がその受光レベルに応じて出力する信号)の強度の飽和が生じ難いものとなる。   According to the first aspect of the invention, the image pickup device of the camera includes a plurality of sub light receiving pixels that receive light of a predetermined color with a light receiving sensitivity lower than that of the color light receiving pixels, in addition to the plurality of color light receiving pixels. It is. In this case, each sub-light-receiving pixel has lower light-receiving sensitivity than the color light-receiving pixel, so that the intensity of the output signal of the color light-receiving pixel (the signal that the color light-receiving pixel outputs according to the light-receiving level) Even if a relatively high-brightness object that causes saturation is included, the sub-light-receiving pixel that receives the light of the high-brightness object outputs its output signal (the sub-light-receiving pixel outputs according to its light reception level). Signal saturation) is less likely to occur.

このため、カメラの撮影対象に、カラー受光画素の出力信号の強度の飽和を生じるような、相対的に高輝度の物体が含まれている場合であっても、カメラの撮像データ(カメラの撮像素子を構成する各受光画素の出力信号のデータ)のうちの少なくとも副受光画素の出力信号に基づいて、当該高輝度の物体の輝度状態を適切な解像度で示す画像を生成することが可能となる。   For this reason, even if the object to be photographed includes a relatively high-luminance object that causes saturation of the intensity of the output signal of the color light receiving pixel, Based on at least the output signal of the sub-light-receiving pixel in the output signal data of each light-receiving pixel constituting the element, it is possible to generate an image indicating the brightness state of the high-brightness object at an appropriate resolution. .

また、カメラの撮影対象に、上記の如き高輝度の物体が含まれていない場合には、カメラの撮像データのうちの少なくともカラー受光画素の出力信号に基づいて、撮影対象の色や輝度を適切な解像度で示すカラー画像を生成することが可能である。   In addition, when the camera's shooting target does not include the high-brightness object as described above, the color and brightness of the shooting target are appropriately set based on at least the output signal of the color light receiving pixel in the camera's imaging data. It is possible to generate a color image having a high resolution.

よって、第1発明によれば、車両の周辺を撮像するカメラの撮影対象に、輝度差の大きい物体が混在していても、それらの物体の適切な画像を得ることが可能となる。   Therefore, according to the first aspect of the present invention, even when objects with a large luminance difference are mixed in the photographing target of the camera that captures the periphery of the vehicle, it is possible to obtain appropriate images of those objects.

かかる第1発明においては、前記カラー受光画素が受光する前記所定の複数種の色としては、例えばR(赤)、G(緑)、B(青)の3原色や、シアン、マゼンタ、イエローの補色系3原色等を採用することができる。   In the first invention, the predetermined plurality of colors received by the color light receiving pixels are, for example, three primary colors of R (red), G (green), and B (blue), cyan, magenta, and yellow. Complementary color three primary colors can be adopted.

また、前記副受光画素が受光する光の色(前記所定色)としては、グレー等、種々様々な色を採用することができる。この場合、該所定色は、前記カラー受光画素に係わる前記所定の複数種の色のいずれかの色と同じであってもよい。   Various colors such as gray can be adopted as the color of light received by the sub light-receiving pixels (the predetermined color). In this case, the predetermined color may be the same as any one of the predetermined plurality of colors related to the color light receiving pixel.

一方、車両周辺監視装置では、自車両の前走車のテールライトや信号機の赤色ランプ等、赤色の発光色の物体を適切に検出し得ることが、自車両と外部の物体との接触を予防したり、車両の適切な走行支援を行なう上で重要となる場合が多い。そこで、上記第1発明では、その一形態として、前記副受光画素の前記所定色は、赤色であることが好ましい(第2発明)。   On the other hand, in the vehicle periphery monitoring device, it is possible to appropriately detect red light emitting objects such as the taillight of the preceding vehicle of the own vehicle and the red lamp of the traffic light, thereby preventing contact between the own vehicle and an external object. In many cases, it is important to provide appropriate driving support for the vehicle. Therefore, in the first invention, as one form thereof, it is preferable that the predetermined color of the sub light receiving pixel is red (second invention).

この第2発明によれば、カメラの撮像データのうちの少なくとも副受光画素の出力信号に基づいて、前走車のテールライトや信号機の赤色ランプ等、赤色の高輝度発光物体の色や輝度状態を適切な解像度で示す画像を生成することが可能となる。   According to the second aspect of the present invention, based on at least the output signal of the sub-light-receiving pixel in the imaging data of the camera, the color and luminance state of the red high-luminance object such as the taillight of the preceding vehicle and the red lamp of the traffic light Can be generated with an appropriate resolution.

あるいは、上記第1発明は、他の形態として、前記副受光画素の前記所定色は、グレー色であってもよい(第3発明)。   Alternatively, as another form of the first invention, the predetermined color of the sub light-receiving pixel may be a gray color (third invention).

この第3発明によれば、前走車のテールライトや信号機の赤色ランプに限らず、対向車のヘッドライトや道路標識などの種々様々の高輝度物体の画像を適切な解像度で生成することが可能となる。   According to the third aspect of the present invention, it is possible to generate images of various high-intensity objects such as headlights of oncoming vehicles and road signs with appropriate resolution, not limited to the taillight of the preceding vehicle and the red lamp of the traffic light. It becomes possible.

上記第1〜第3発明において、前記副受光画素は、前記撮像素子の全領域に分布するように配置されていてもよい。ただし、自車両にとって重要な高輝度の発光物体が、カメラの撮像領域のうちの特定の一部の領域に存在すること、あるいは、その可能性が高いことが判っている場合には、前記副受光画素は、前記撮像素子の特定の一部の領域にだけ配列させるようにしてもよい。   In the first to third aspects of the invention, the sub light receiving pixels may be arranged so as to be distributed over the entire area of the imaging element. However, if it is known that a high-luminance light-emitting object important for the host vehicle exists in a specific part of the imaging region of the camera, or if it is known that the possibility is high, The light receiving pixels may be arranged only in a specific partial area of the image sensor.

例えば、前記カメラが前記車両(自車両)の前方又は後方を撮像するように該車両に搭載されている場合には、前記車両の前方又は後方の他車のヘッドライトやテールライトは、前記カメラの撮像領域の全体のうちの前記車両の前方又は後方の路面の無限遠点の近辺の領域に存在する場合が多い。また、信号機の点灯ランプ等は、前記カメラの撮像領域の全体のうちの上部の領域に存在する場合が多い。   For example, when the camera is mounted on the vehicle so as to image the front or rear of the vehicle (own vehicle), the headlights and taillights of other vehicles in front of or behind the vehicle are In many cases, it exists in an area near the infinity point on the road surface in front of or behind the vehicle in the entire imaging area. In many cases, the lighting lamp of the traffic light is present in the upper area of the entire imaging area of the camera.

そこで、前記カメラが前記車両(自車両)の前方又は後方を撮像するように該車両に搭載されている場合には、前記副受光画素は、前記撮像素子のうちの一部の領域内で前記カラー受光画素と共に配列されており、当該一部の領域には、前記カメラの撮像領域の全体のうちの上部の領域に対応する領域と、前記カメラの撮像領域の全体のうちの前記車両の前方の路面の無限遠点を含む部分領域に対応する領域とのうちの少なくともいずれか一方の領域が含まれるようにしてもよい(第4発明)。   Therefore, when the camera is mounted on the vehicle so as to image the front or rear of the vehicle (own vehicle), the sub light-receiving pixel is located within the partial area of the image sensor. It is arranged together with the color light receiving pixels, and the partial area includes an area corresponding to an upper area of the entire imaging area of the camera and a front of the vehicle in the entire imaging area of the camera. It is also possible to include at least one of the regions corresponding to the partial region including the infinity point of the road surface (fourth invention).

この第4発明によれば、前記一部の領域では、前記副受光画素の出力信号を用いて、高輝度の物体の適切な画像を生成することができる一方、該一部の領域以外の領域(副受光画素が含まれない領域)では、カラー受光画素の出力信号を用いて信頼性の高いカラー画像を生成することができる。   According to the fourth aspect of the present invention, in the partial area, an appropriate image of a high-luminance object can be generated using the output signal of the sub light-receiving pixel, while an area other than the partial area is generated. In the (region not including the sub light receiving pixels), a color image with high reliability can be generated using the output signals of the color light receiving pixels.

上記第1〜第4発明では、種々様々な形態の画像を生成することが可能であるが、車両の周辺の監視を適切に行う上では、例えば次のような態様を採用することが好ましい。   In the first to fourth inventions, it is possible to generate various types of images. However, in order to appropriately monitor the surroundings of the vehicle, it is preferable to employ, for example, the following modes.

すなわち、前記カメラにより撮像された原画像であって、前記撮像素子の各受光画素がその受光レベルに応じて出力する出力信号の強度を示す階調値がそれぞれ割り当てられた複数の画素により構成される原画像を取得する原画像取得手段と、前記原画像のうち、複数の前記カラー受光画素と複数の前記副受光画素とを包含する少なくとも一部の領域である処理対象領域における該原画像の各画素の階調値に基づいて、該処理対象領域の各画素における前記複数種の色のそれぞれの階調値と前記所定色の階調値とを決定することにより、前記複数種の色及び所定色のそれぞれの色に対応する複数の色別画像を生成する色別画像生成手段と、前記複数の色別画像のうちの前記複数種の色にそれぞれ対応する色別画像を合成してなる第1カラー画像と、前記所定色の色別画像と、前記複数の色別画像のうちの全ての色別画像を合成してなる第2カラー画像とのうちの少なくともいずれか1つの画像を車両周辺の監視用の画像として取得する監視用画像取得手段とを備えることが好ましい(第5発明)。   That is, the image is an original image captured by the camera, and is composed of a plurality of pixels each assigned a gradation value indicating the intensity of an output signal output according to the light reception level of each light receiving pixel of the image sensor. Original image acquisition means for acquiring the original image, and the original image in the processing target area that is at least a part of the original image including the plurality of color light receiving pixels and the plurality of sub light receiving pixels. Based on the gradation value of each pixel, by determining the gradation value of each of the plurality of colors and the gradation value of the predetermined color in each pixel of the processing target region, the plurality of colors and A color-specific image generating unit that generates a plurality of color-specific images corresponding to each of the predetermined colors and a color-specific image corresponding to each of the plurality of types of colors among the plurality of color-specific images. First color image And at least one of the predetermined color image and a second color image obtained by synthesizing all the color images of the plurality of color images. It is preferable to include monitoring image acquisition means for acquiring the first image (fifth invention).

この第5発明によれば、前記処理対象領域における前記原画像の各画素の階調値に基づいて、前記色別画像生成手段により、前記複数種の色及び所定色のそれぞれの色に対応する複数の色別画像が生成される。   According to the fifth aspect of the invention, based on the gradation value of each pixel of the original image in the processing target area, the color-specific image generation unit corresponds to each of the plurality of types of colors and the predetermined color. A plurality of color-specific images are generated.

この各色別画像は、その各画素の階調値が、該色別画像に対応する色の階調値となる画像、すなわち、当該色の輝度分布を示す画像となる。なお、この各色別画像は、例えば処理対象領域における該原画像の画素のうちの少なくとも該色別画像に対応する色の画素の階調値に基づいて、該色別画像の各画素の階調値(当該対応する色の階調値)を、デモザイキング処理により決定することで、生成することができる。   Each color image is an image in which the gradation value of each pixel is a gradation value of a color corresponding to the color image, that is, an image showing the luminance distribution of the color. Note that each color-specific image is obtained by, for example, determining the gradation of each pixel of the color-specific image based on the gradation value of the pixel of the color corresponding to the color-specific image among the pixels of the original image in the processing target region. A value (a gradation value of the corresponding color) can be generated by determining by a demosaicing process.

そして、前記監視用画像取得手段は、前記複数の色別画像のうちの前記複数種の色にそれぞれ対応する色別画像を合成してなる第1カラー画像と、前記所定色の色別画像と、前記複数の色別画像のうちの全ての色別画像を合成してなる第2カラー画像とのうちの少なくともいずれか1つの画像を車両周辺の監視用の画像として取得する。   The monitoring image acquisition means includes a first color image obtained by combining color images corresponding to the plurality of colors of the plurality of color images, and a color-specific image of the predetermined color, At least one of the second color image obtained by synthesizing all the color-specific images among the plurality of color-specific images is acquired as an image for monitoring around the vehicle.

この場合、前記第1カラー画像は、特に、前記処理対象領域における受光画素の出力信号の強度の飽和が生じていない状態では、該処理対象領域の撮影対象の色情報を適切に反映したものとなる。従って、色再現性の良いカラー画像として、第1カラー画像を利用することができる。   In this case, the first color image appropriately reflects the color information of the imaging target in the processing target area, particularly when the intensity of the output signal of the light receiving pixel in the processing target area is not saturated. Become. Therefore, the first color image can be used as a color image with good color reproducibility.

また、前記所定色の色別画像は、特に、前記処理対象領域における撮影対象に、高輝度の物体が含まれているような場合に、該撮影対象の輝度分布を適切に反映したものとなる。従って、高輝度の物体を検出し易い画像として、該所定色の色別画像を利用することができる。   Further, the color-specific image of the predetermined color appropriately reflects the luminance distribution of the shooting target, particularly when the shooting target in the processing target area includes a high-luminance object. . Therefore, the color-specific image of the predetermined color can be used as an image for easily detecting a high-luminance object.

また、前記第2カラー画像は、前記所定色の色別画像により示される前記処理対象領域の撮影対象の輝度分布を反映させたカラー画像となる。このため、特に、前記処理対象領域における撮影対象に、高輝度の物体が含まれているような場合でも、白とび状態を抑制して、ダイナミックレンジを擬似的に拡大したカラー画像として、第2カラー画像を利用することができる。   Further, the second color image is a color image reflecting the luminance distribution of the imaging target in the processing target area indicated by the color-specific image of the predetermined color. For this reason, in particular, even when a subject to be imaged in the processing target region includes a high-luminance object, the second image is a color image in which the dynamic range is pseudo-expanded while suppressing the overexposure state. Color images can be used.

従って、第5発明によれば、種々様々の輝度、色の物体を、上記第1カラー画像、所定色の色別画像、第2カラー画像のうちのいずれかを利用して検出するようにすることができる。   Therefore, according to the fifth aspect of the invention, various brightness and color objects are detected using any one of the first color image, the color-specific image of the predetermined color, and the second color image. be able to.

上記第5発明では、前記監視用画像取得手段は、前記第1カラー画像の明るさ度合い又はコントラストに応じて、第1カラー画像、輝度分布画像及び第2カラー画像のうちの、車両周辺の監視用の画像として取得する画像を切替えることが好ましい(第6発明)。   In the fifth aspect of the invention, the monitoring image acquisition unit monitors the periphery of the vehicle among the first color image, the luminance distribution image, and the second color image according to the brightness level or contrast of the first color image. It is preferable to switch the image acquired as the image for use (sixth invention).

この第6発明によれば、前記処理対象領域における撮影対象の輝度の大きさや、その分布状態に応じて、第1カラー画像、輝度分布画像及び第2カラー画像のうちの適切な画像(所望の物体を検出し易い画像)を、車両周辺の監視用の画像として用いることができる。   According to the sixth aspect of the invention, an appropriate image (desired image) of the first color image, the luminance distribution image, and the second color image is selected according to the luminance level of the photographing target in the processing target region and the distribution state thereof. An image in which an object can be easily detected) can be used as an image for monitoring around the vehicle.

本発明の実施形態における車両周辺監視装置の構成を示す図。The figure which shows the structure of the vehicle periphery monitoring apparatus in embodiment of this invention. 図2(a)は実施形態におけるカメラのカラーフィルタの配置例を示す図、図2(b)は実施形態のカメラの撮像素子から得られる撮像画像(原画像)を説明するための図。FIG. 2A is a diagram illustrating an arrangement example of the color filter of the camera in the embodiment, and FIG. 2B is a diagram for explaining a captured image (original image) obtained from the image sensor of the camera of the embodiment. 実施形態のカメラの受光画素の受光感度の特性を示すグラフ。The graph which shows the characteristic of the light reception sensitivity of the light reception pixel of the camera of embodiment. 図1に示す画像コントローラ3の処理を示すフローチャート。3 is a flowchart showing processing of the image controller 3 shown in FIG. 図4のSTEP2の処理を説明するための図。The figure for demonstrating the process of STEP2 of FIG. 図4のSTEP3の処理の詳細を示すフローチャート。The flowchart which shows the detail of the process of STEP3 of FIG. 図6のSTEP3−2又は3−3で生成されるG画像を説明するための図。The figure for demonstrating the G image produced | generated by STEP3-2 or 3-3 of FIG. 図6のSTEP3−2又は3−3で生成されるRx画像を説明するための図。The figure for demonstrating the Rx image produced | generated by STEP3-2 or 3-3 of FIG. 図6のSTEP3−3で生成されるR画像を説明するための図。The figure for demonstrating the R image produced | generated by STEP3-3 of FIG. 図6のSTEP3−3で生成されるB画像を説明するための図。The figure for demonstrating the B image produced | generated by STEP3-3 of FIG. 図4のSTEP4の処理で生成される第1カラー画像を説明するための図。The figure for demonstrating the 1st color image produced | generated by the process of STEP4 of FIG. 図4のSTEP4の処理で生成される第2カラー画像を説明するための図。The figure for demonstrating the 2nd color image produced | generated by the process of STEP4 of FIG. 図4のSTEP4の処理で用いる画像の領域に関する説明図。Explanatory drawing regarding the area | region of the image used by the process of STEP4 of FIG. 図14(a),(b)はそれぞれ、カメラの受光画素の他の配列パターンの例を示す図。FIGS. 14A and 14B are diagrams showing examples of other arrangement patterns of light receiving pixels of the camera. 図15(a),(b),(c)はそれぞれ、グレー色の受光画素を備えるカメラの受光画素の配列パターンの例を示す図。FIGS. 15A, 15 </ b> B, and 15 </ b> C are diagrams each illustrating an example of an array pattern of light receiving pixels of a camera including gray light receiving pixels. 図15(a),(b),(c)に関連する各受光画素の受光特性を示すグラフ。The graph which shows the light reception characteristic of each light reception pixel relevant to Fig.15 (a), (b), (c).

本発明の車両周辺監視装置の一実施形態を、図1〜図12を参照して説明する。図1を参照して、本実施形態の車両周辺監視装置は、車両1に搭載されたカメラ2と、カメラ2と接続された画像コントローラ3とを備える。   An embodiment of a vehicle periphery monitoring device of the present invention will be described with reference to FIGS. With reference to FIG. 1, the vehicle periphery monitoring device of the present embodiment includes a camera 2 mounted on a vehicle 1 and an image controller 3 connected to the camera 2.

カメラ2は、車両1の周辺を撮影するためのカメラである。本実施形態では、カメラ2は、車両1の前方を撮影するように車両1の前部に搭載されている。   The camera 2 is a camera for photographing the periphery of the vehicle 1. In the present embodiment, the camera 2 is mounted on the front portion of the vehicle 1 so as to photograph the front of the vehicle 1.

このカメラ2は、フィルタ21が組み込まれた撮像素子22(CCD、CMOS等)によりカラー映像(撮影対象の色情報を含む映像)を撮影可能なカメラであり、該撮像素子22による撮像データを画像コントローラ3の制御回路30に出力する。撮像素子22は、m×n個の複数の受光画素をm行n列の配列パターンで2次元状に配列して構成されている。   The camera 2 is a camera that can shoot a color video (video including color information of a shooting target) by an imaging device 22 (CCD, CMOS, etc.) in which a filter 21 is incorporated. Output to the control circuit 30 of the controller 3. The imaging element 22 is configured by arranging a plurality of m × n light receiving pixels in an array pattern of m rows and n columns in a two-dimensional manner.

図2(a)を参照して、カメラ2のフィルタ21は、R(赤)、G(緑)、B(青)の3原色のカラーフィルタ、すなわち、R、G、Bの波長域の光(可視光)をそれぞれ透過可能な3種類のカラーフィルタ(以降、基本カラーフィルタという)と、所定色のカラーフィルタ(以降、副カラーフィルタという)とにより構成される。   Referring to FIG. 2A, the filter 21 of the camera 2 is a color filter of three primary colors R (red), G (green), and B (blue), that is, light in the R, G, and B wavelength ranges. It is composed of three types of color filters (hereinafter referred to as basic color filters) that can each transmit (visible light) and a color filter of a predetermined color (hereinafter referred to as sub color filters).

副カラーフィルタが透過可能な波長域の光の色である上記所定色は、本実施形態では、R、G、Bの三原色のうちのR(赤)である。ただし、副カラーフィルタによる光の透過率は、基本カラーフィルタによる光の透過率よりも低いものとされている。   In the present embodiment, the predetermined color, which is the color of light in the wavelength range that can be transmitted through the sub color filter, is R (red) among the three primary colors R, G, and B. However, the light transmittance of the sub color filter is lower than the light transmittance of the basic color filter.

3原色の基本カラーフィルターのうちのいずれかの色のカラーフィルタが、撮像素子22のm×n個の受光画素のうちの、所定割合の個数の受光画素のそれぞれの受光経路側に装着されている。これにより、R、G、Bのいずれかの色の基本カラーフィルタが装着された各受光画素は、それぞれに対応する色のカラーフィルタを介して受光する。   A color filter of one of the three primary color basic color filters is attached to each light receiving path side of a predetermined number of light receiving pixels among the m × n light receiving pixels of the image sensor 22. Yes. Accordingly, each light receiving pixel on which the basic color filter of any one of R, G, and B is mounted receives light through the corresponding color filter.

なお、これらの受光画素(上記所定割合の個数の受光画素)に装着された基本カラーフィルタの全体には、R、G、Bの全ての色のカラーフィルタが含まれる。従って、基本カラーフィルタが装着された受光画素の全体は、Rの色のカラーフィルタ(以降、Rフィルタという)が装着された受光画素(以降、R受光画素という)と、Gの色のカラーフィルタ(以降、Gフィルタという)が装着された受光画素(以降、G受光画素という)と、Bの色のカラーフィルタ(以降、Bフィルタという)が装着された受光画素(以降、B受光画素という)とから構成される。これらのR受光画素、G受光画素、B受光画素は、本発明におけるカラー受光画素に相当するものである。   Note that the basic color filters mounted on these light receiving pixels (the predetermined number of light receiving pixels) include all color filters of R, G, and B. Accordingly, the entire light receiving pixel to which the basic color filter is attached is composed of a light receiving pixel (hereinafter referred to as an R light receiving pixel) to which an R color filter (hereinafter referred to as an R filter) is attached, and a G color filter. A light receiving pixel (hereinafter referred to as a G light receiving pixel) to which a light receiving pixel (hereinafter referred to as a G light receiving pixel) is attached and a light receiving pixel (hereinafter referred to as a B light receiving pixel) to which a B color filter (hereinafter referred to as a B filter) is attached. It consists of. These R light receiving pixel, G light receiving pixel, and B light receiving pixel correspond to the color light receiving pixels in the present invention.

また、m×n個の受光画素のうちの、残りの受光画素(R受光画素、G受光画素、B受光画素を除く受光画素)のそれぞれの受光経路側には、前記副カラーフィルタが装着されている。これにより、副カラーフィルタが装着された各受光画素は、該副カラーフィルタを介して受光する。以降、副カラーフィルタを、Rxフィルタ、該Rxフィルタが装着された受光画素をRx受光画素という。このRx受光画素は、本発明における副受光画素に相当するものである。   The sub color filter is mounted on each light receiving path side of the remaining light receiving pixels (the light receiving pixels excluding the R light receiving pixel, the G light receiving pixel, and the B light receiving pixel) among the m × n light receiving pixels. ing. Thereby, each light receiving pixel to which the sub color filter is attached receives light through the sub color filter. Hereinafter, the sub color filter is referred to as an Rx filter, and a light receiving pixel on which the Rx filter is mounted is referred to as an Rx light receiving pixel. This Rx light receiving pixel corresponds to the sub light receiving pixel in the present invention.

図2(a)に示す配列パターンの撮像素子22では、基本カラーフィルタのうちの1つの色のカラーフィルタが装着された受光画素、例えばG受光画素が、市松状の配列パターンで配置されている。そして、赤色のRxフィルタが装着されたRx受光画素が、縦方向及び横方向に1つおきに並ぶように配置されている。また、基本カラーフィルタのうちのRフィルタが装着されたR受光画素と、Bフィルタが装着されたB受光画素とが、縦方向及び横方向に1つおきに交互に並ぶように配置されている。従って、図2(a)に示す配列パターンの撮像素子22では、R受光画素、G受光画素、B受光画素、Rx受光画素の個数比率は1:4:1:2である。   In the image sensor 22 having the arrangement pattern shown in FIG. 2A, light receiving pixels, for example, G light receiving pixels, to which one of the basic color filters is mounted are arranged in a checkered arrangement pattern. . The Rx light receiving pixels having the red Rx filter are arranged so that every other pixel is arranged in the vertical direction and the horizontal direction. Of the basic color filters, the R light receiving pixels to which the R filter is attached and the B light receiving pixels to which the B filter is attached are alternately arranged in the vertical and horizontal directions. . Therefore, in the image sensor 22 having the arrangement pattern shown in FIG. 2A, the number ratio of the R light receiving pixels, the G light receiving pixels, the B light receiving pixels, and the Rx light receiving pixels is 1: 4: 1: 2.

カメラ2は、R受光画素(図中R11,R15,…で示している)、G受光画素(図中G12,G14,…で示している)、B受光画素(図中B13,B31,…で示している)、及びRx受光画素(図中Rx22,Rx24,…で示している)の出力信号を撮像データとして画像コントローラ3に出力する。各受光画素の出力信号は、該受光画素での所定時間あたりの受光レベルに応じた強度(大きさ)を有する信号である。   The camera 2 includes R light receiving pixels (indicated by R11, R15,...), G light receiving pixels (indicated by G12, G14,...), And B light receiving pixels (B13, B31,. And output signals of Rx light receiving pixels (indicated by Rx22, Rx24,... In the figure) are output to the image controller 3 as imaging data. The output signal of each light receiving pixel is a signal having an intensity (magnitude) corresponding to the light receiving level per predetermined time at the light receiving pixel.

なお、各受光画素の受光レベルは、カメラ2の撮像素子22に入射した光のうち、その受光画素で受光した光(該受光画素に対応するカラーフィルタを透過した後の光)の強度に相当する。   The light receiving level of each light receiving pixel corresponds to the intensity of light received by the light receiving pixel (light after passing through the color filter corresponding to the light receiving pixel) out of the light incident on the image sensor 22 of the camera 2. To do.

ここで、各受光画素の受光特性について図3を参照して説明しておく。基本カラーフィルタを介して受光するR受光画素、G受光画素、B受光画素のそれぞれの受光感度(入射光の強度に対する受光画素の出力信号の強度の比率)と、入射光の波長との関係(スペクトル特性)は、それぞれ、図3の実線のグラフar,ag,abで示すような特性となる。すなわち、R受光画素、G受光画素、B受光画素のそれぞれの受光感度は、それぞれに対応する色の波長域の光に対して高感度となる。   Here, the light receiving characteristics of each light receiving pixel will be described with reference to FIG. Relationship between the light receiving sensitivity of each of the R light receiving pixel, the G light receiving pixel, and the B light receiving pixel received through the basic color filter (ratio of the intensity of the output signal of the light receiving pixel to the intensity of the incident light) and the wavelength of the incident light ( Spectral characteristics) are characteristics shown by solid line graphs a r, a g, and a b in FIG. That is, the light receiving sensitivity of each of the R light receiving pixel, the G light receiving pixel, and the B light receiving pixel is high with respect to light in the wavelength region of the corresponding color.

一方、赤色の副カラーフィルタを介して受光するRx受光画素の受光感度と、入射光の波長との関係は、図3の実線のグラフarxで示すような特性となる。   On the other hand, the relationship between the light-receiving sensitivity of the Rx light-receiving pixel that receives light through the red sub-color filter and the wavelength of the incident light has a characteristic as indicated by a solid line graph “arx” in FIG.

この場合、Rx受光画素の受光感度は、R受光画素と同様の波長域の光(赤色の光)に対して高感度なものとなるものの、Rxフィルタ(副カラーフィルタ)の透過率は、前記したように基本カラーフィルタの透過率よりも低い。このため、図示の如く、Rx受光画素の受光感度は、R受光画素、G受光画素、B受光画素よりも低いものとなっている。   In this case, although the light receiving sensitivity of the Rx light receiving pixel is highly sensitive to light in the same wavelength range as the R light receiving pixel (red light), the transmittance of the Rx filter (sub color filter) is Thus, it is lower than the transmittance of the basic color filter. For this reason, as shown in the figure, the light receiving sensitivity of the Rx light receiving pixels is lower than that of the R light receiving pixels, the G light receiving pixels, and the B light receiving pixels.

なお、各受光画素の出力信号の強度は、所定の最小値と最大値との間で受光レベル(受光する光の強度)に応じて変化する。従って、各受光画素の受光レベルがある大きさを超える大レベルになると、該受光素子の出力信号の強度が飽和して、該強度が最大値もしくはそれに近い大きさに保持される。また、各受光画素の受光レベルがある大きさを下回る小レベルになると、該受光画素の出力信号の強度が、最小値もしくはそれに近い大きさに保持される。   Note that the intensity of the output signal of each light receiving pixel varies between a predetermined minimum value and a maximum value in accordance with the light reception level (the intensity of light received). Therefore, when the light receiving level of each light receiving pixel becomes a large level exceeding a certain level, the intensity of the output signal of the light receiving element is saturated and the intensity is held at or near the maximum value. Further, when the light receiving level of each light receiving pixel becomes a small level lower than a certain level, the intensity of the output signal of the light receiving pixel is held at a minimum value or a level close thereto.

補足すると、基本カラーフィルタとして、R、G、B以外の他の種類のカラーフィルタ、例えば、Cy(シアン)、Mg(マゼンタ)、Ye(イエロー)の補色系3原色のフィルタを用いてもよい。その場合には、Rxフィルタを装着したRx受光画素の受光感度が、補色系3原色のカラーフィルタが装着される受光画素の受光感度よりも低いものとなるように、Rxフィルタの透過率を設定しておけばよい。   Supplementally, other types of color filters other than R, G, and B may be used as the basic color filter, such as filters of the three primary colors complementary colors Cy (cyan), Mg (magenta), and Ye (yellow). . In that case, the transmittance of the Rx filter is set so that the light receiving sensitivity of the Rx light receiving pixel to which the Rx filter is mounted is lower than the light receiving sensitivity of the light receiving pixel to which the complementary primary color filter is mounted. You just have to.

画像コントローラ3は、図示しないCPU、メモリ、入出力回路等により構成された制御回路30と、画像メモリ40と、CAN(Controller Area Network)ドライバ50とを有している。   The image controller 3 includes a control circuit 30 including a CPU, a memory, an input / output circuit, and the like (not shown), an image memory 40, and a CAN (Controller Area Network) driver 50.

制御回路30は、メモリに保持された画像処理用プログラムをCPUで実行することにより、原画像取得部31、色別画像生成部32、監視用画像取得部33、対象物検知部34として機能する。なお、原画像取得部31、色別画像生成部32、監視用画像取得部33、対象物検知部34の一部又は全部をハードウェアにより構成してもよい。   The control circuit 30 functions as an original image acquisition unit 31, a color-specific image generation unit 32, a monitoring image acquisition unit 33, and an object detection unit 34 by executing an image processing program stored in the memory by the CPU. . Note that some or all of the original image acquisition unit 31, the color-specific image generation unit 32, the monitoring image acquisition unit 33, and the object detection unit 34 may be configured by hardware.

原画像取得部31は、本発明における原画像取得手段に相当する。この原画像取得部31は、カメラ2に制御信号を出力して車両1の前方を撮像させ、カメラ2から出力される撮像データ(各受光画素の出力信号)により、原画像41を取得して画像メモリ40に保持する。   The original image acquisition unit 31 corresponds to the original image acquisition means in the present invention. The original image acquisition unit 31 outputs a control signal to the camera 2 to image the front of the vehicle 1, acquires an original image 41 based on imaging data (output signal of each light receiving pixel) output from the camera 2. Stored in the image memory 40.

原画像41は、図2(b)に示したように、図2(a)に示した撮像素子22の各受光画素(R受光画素、G受光画素、B受光画素、Rx受光画素)の出力信号の強度を示す階調値を、該受光画素に対応する配置位置の画素(配置位置が同じ画素)の階調値として個別に割り当てたものになっている。図2(b)においては、各画素の階調値を、S(大文字)と、小文字r,g,b,rxのいずれかと、添え字i,j(i=1,2…,m、j=1,2,…,n)との組により構成される変数により示している。   As shown in FIG. 2B, the original image 41 is output from each light receiving pixel (R light receiving pixel, G light receiving pixel, B light receiving pixel, Rx light receiving pixel) of the image sensor 22 shown in FIG. The gradation value indicating the signal intensity is individually assigned as the gradation value of the pixel at the arrangement position corresponding to the light-receiving pixel (pixels having the same arrangement position). In FIG. 2B, the gradation value of each pixel is set to S (upper case), one of lower case letters r, g, b, rx, and subscripts i, j (i = 1, 2,..., M, j = 1, 2,..., N).

ここで、Srijは図2(a)のR受光画素に対応した配置位置の画素(以下、R画素という)の階調値を示し、Sgijは図2(a)のG受光画素に対応した配置位置の画素(以下、G画素という)の階調値を示し、Sbijは図2(a)のB受光画素に対応した配置位置の画素(以下、B画素という)の階調値を示し、Srxijは図2(a)のRx受光画素に対応した配置位置の画素(以下、Rx画素という)の階調値であることを示している。   Here, Srij represents a gradation value of a pixel at an arrangement position corresponding to the R light receiving pixel in FIG. 2A (hereinafter referred to as R pixel), and Sgij represents an arrangement corresponding to the G light receiving pixel in FIG. 2 indicates the gradation value of the pixel at the position (hereinafter referred to as G pixel), Sbij indicates the gradation value of the pixel at the arrangement position (hereinafter referred to as B pixel) corresponding to the B light receiving pixel in FIG. 2A, and Srxij Indicates a gradation value of a pixel (hereinafter referred to as an Rx pixel) at an arrangement position corresponding to the Rx light receiving pixel in FIG.

色別画像生成部32は、本発明における色別画像生成手段に相当する。この色別画像生成部32は、R受光画素、G受光画素、B受光画素、Rx受光画素のそれぞれに対応する4種類の色別画像42を生成して、それらの色別画像42を画像メモリ40に保持する。   The color-specific image generation unit 32 corresponds to the color-specific image generation means in the present invention. The color-specific image generation unit 32 generates four types of color-specific images 42 corresponding to each of the R light-receiving pixels, the G light-receiving pixels, the B light-receiving pixels, and the Rx light-receiving pixels, and stores the color-specific images 42 in the image memory. 40.

上記4種類の色別画像42は、より詳しくは、R受光画素に対応する色(赤)の色別画像42であるR画像(以降、参照符号42rを付する)と、G受光画素に対応する色(緑)の色別画像42であるG画像(以降、参照符号42gを付する)と、B受光画素に対応する色(青)の色別画像42であるB画像(以降、参照符号42bを付する)と、Rx受光画素に対応する色(赤)の色別画像42であるRx画像(以降、参照符号42rxを付する)とから構成される。   More specifically, the four types of color-specific images 42 correspond to an R image (hereinafter referred to as reference numeral 42r) that is a color-specific image 42 of a color (red) corresponding to the R light receiving pixel, and a G light receiving pixel. A G image (hereinafter referred to as reference numeral 42g) that is a color-specific image 42 of the color (green) to be performed, and a B image (hereinafter referred to as reference numeral 42) that is a color (blue) image 42 corresponding to the B light receiving pixel. 42b) and an Rx image (hereinafter referred to as reference numeral 42rx) which is a color-specific image 42 of the color (red) corresponding to the Rx light receiving pixel.

R画像42rは、その各画素の階調値が、原画像41のうちの、少なくともR画素の階調値を基にデモザイキング処理により決定される赤色階調のモノトーン画像(赤色の輝度分布を示す画像)である。   The R image 42r has a red tone monotone image (a red luminance distribution is determined by a demosaicing process) in which the tone value of each pixel is determined based on at least the tone value of the R pixel in the original image 41. Image).

また、G画像42gは、その各画素の階調値が、原画像41のうちの、少なくともG画素の階調値を基にデモザイキング処理により決定される緑色階調のモノトーン画像(緑色の輝度分布を示す画像)である。   The G image 42g has a green tone monotone image (green luminance) in which the tone value of each pixel is determined by demosaicing processing based on at least the tone value of the G pixel in the original image 41. Image showing the distribution).

また、B画像42bは、その各画素の階調値が、原画像41のうちの、少なくともB画素の階調値を基にデモザイキング処理により決定される青色階調のモノトーン画像(青色の輝度分布を示す画像)である。   Further, the B image 42b has a blue tone monotone image (blue luminance) in which the tone value of each pixel is determined by demosaicing processing based on at least the tone value of the B pixel in the original image 41. Image showing the distribution).

また、Rx画像42rxは、その各画素の階調値が、原画像41のうちの、少なくともRx画素の階調値を基にデモザイキング処理により決定される赤色階調のモノトーン画像(赤色の輝度分布を示す画像)である。   In addition, the Rx image 42rx has a red tone monotone image (red luminance) in which the tone value of each pixel is determined by demosaicing processing based on at least the tone value of the Rx pixel in the original image 41. Image showing the distribution).

なお、Rx画像42rxは、R画像42rと同様に赤色階調のモノトーン画像であるが、R画像42rと、Rx画像42rxとでは、それぞれの画像生成に用いる階調値が異なる。このため、R画像42rと、Rx画像42rxとは、各別の色別画像42として生成される。   The Rx image 42rx is a monotone image with a red gradation similar to the R image 42r, but the R image 42r and the Rx image 42rx have different gradation values used for image generation. Therefore, the R image 42r and the Rx image 42rx are generated as different color-specific images 42.

監視用画像取得部33は、本発明における監視用画像取得手段に相当する。この監視用画像取得部33は、対象物検知部34が車両1の前方に存在する監視対象物(監視対象の物体)を検出するために使用する監視用画像を、前記色別画像42から選択もしくは生成することで取得し、その取得した監視用画像を対象物検知部34に出力する。   The monitoring image acquisition unit 33 corresponds to the monitoring image acquisition means in the present invention. The monitoring image acquisition unit 33 selects, from the color-specific images 42, a monitoring image used by the object detection unit 34 to detect a monitoring object (an object to be monitored) existing in front of the vehicle 1. Alternatively, it is acquired by generating, and the acquired monitoring image is output to the object detection unit 34.

この場合、監視用画像取得部33は、監視用画像としての第1カラー画像43及び第2カラー画像44のいずれかを随時生成する機能を有する。第1カラー画像43は、上記色別画像42のうちのR画像42r、G画像42g及びB画像42bを合成したカラー画像であり、第2カラー画像44は、上記色別画像42の全ての種類の画像(42r,42g,42b,42rx)を合成したカラー画像である。   In this case, the monitoring image acquisition unit 33 has a function of generating any one of the first color image 43 and the second color image 44 as the monitoring image as needed. The first color image 43 is a color image obtained by synthesizing the R image 42r, the G image 42g, and the B image 42b among the color-specific images 42. The second color image 44 includes all types of the color-specific images 42. This is a color image obtained by combining the images (42r, 42g, 42b, 42rx).

対象物検知部34は、監視用画像取得部33から与えられた監視用画像を用いて、監視対象物を検知し、その検知結果に応じて車両コントローラ6に対して各種の制御信号を送信する。本実施形態では、対象物検知部34は、車両1の前方の路面の車線(レーンマーク)、他車両、信号機(もしくは道路標識)、歩行者を監視対象物として、それらの各種類の監視対象物を、それぞれに対応する既定の検知アルゴリズムにより検知する。   The object detection unit 34 detects the monitoring object using the monitoring image provided from the monitoring image acquisition unit 33 and transmits various control signals to the vehicle controller 6 according to the detection result. . In the present embodiment, the object detection unit 34 uses a lane (lane mark) on the road surface in front of the vehicle 1, another vehicle, a traffic light (or road sign), and a pedestrian as monitoring objects, and monitors each type of those objects. Objects are detected by a predetermined detection algorithm corresponding to each object.

車両コントローラ6は、図示しないCPU、メモリ、入出力回路等により構成された電子回路ユニットである。そして、車両コントローラ6は、メモリに保持された車両1の制御用プログラムをCPUで実行することによって、操舵装置71の作動を制御する操舵制御部61、制動装置72の作動を制御する制動制御部62、及びディスプレイ73の表示を制御するディスプレイ表示制御部63として機能する。   The vehicle controller 6 is an electronic circuit unit that includes a CPU, a memory, an input / output circuit, and the like (not shown). The vehicle controller 6 executes the control program for the vehicle 1 held in the memory by the CPU, thereby controlling the operation of the steering device 71, and the braking control unit for controlling the operation of the braking device 72. 62 and a display display control unit 63 that controls display on the display 73.

なお、画像コントローラ3と車両コントローラ6とは、CANドライバ50,64を介して相互に通信を行う。   The image controller 3 and the vehicle controller 6 communicate with each other via the CAN drivers 50 and 64.

次に、色別画像生成部32及び監視用画像取得部33の処理を中心に、画像コントローラ3の処理の詳細を説明する。   Next, the details of the processing of the image controller 3 will be described focusing on the processing of the color-specific image generation unit 32 and the monitoring image acquisition unit 33.

画像コントローラ3は、原画像取得部31、色別画像生成部32、監視用画像取得部33及び対象物検知部34による処理を、図4のフローチャートに示す如く実行する。   The image controller 3 executes processing by the original image acquisition unit 31, the color-specific image generation unit 32, the monitoring image acquisition unit 33, and the object detection unit 34 as shown in the flowchart of FIG.

STEP1は原画像取得部31による処理である。原画像取得部31は、図2(b)を参照して先に説明した如く、カメラ2から出力される撮像データ(撮像素子22の各受光画素の出力信号)により、原画像41(各受光画素の出力信号の強度を示す階調値を、該受光画素に対応する配置位置の画素に割り当てた画像)を取得して画像メモリ40に保持する。   STEP 1 is processing performed by the original image acquisition unit 31. As described above with reference to FIG. 2B, the original image acquisition unit 31 uses the image data (output signals of the light receiving pixels of the image sensor 22) output from the camera 2 to generate the original image 41 (each light reception). An image in which a gradation value indicating the intensity of the output signal of the pixel is assigned to the pixel at the arrangement position corresponding to the light receiving pixel is acquired and held in the image memory 40.

次に、STEP2,3の処理が色別画像生成部32により実行される。STEP2では、色別画像生成部32は、原画像41に1つ又は複数の処理対象領域を設定する。この処理対象領域は、色別画像生成部32による色別画像42の生成処理の対象とする領域である。   Next, the processing of STEP 2 and 3 is executed by the color-specific image generation unit 32. In STEP 2, the color-specific image generation unit 32 sets one or more processing target areas in the original image 41. This processing target area is an area that is a target of the generation process of the color-specific image 42 by the color-specific image generation unit 32.

図5は、処理対象領域の設定例を示している。この例では、原画像41の全体が複数の領域(図示例では5×6個の領域)に分割され、その各領域が処理対象領域として設定される。   FIG. 5 shows an example of setting the processing target area. In this example, the entire original image 41 is divided into a plurality of regions (5 × 6 regions in the illustrated example), and each region is set as a processing target region.

ただし、設定する処理対象領域の個数や、それぞれのサイズ、配置位置は、撮影時の環境や、処理対象領域の画像から検知しようとする監視対象物の種別、該画像の利用目的等に応じて異ならせるようにしてもよい。例えば、カメラ2の撮像画像を用いて監視対象物として他車両を検知しようとする場合に、原画像41のうちの道路の無限遠点を含む領域(原画像41で他車両が写っている可能性が高い領域)を処理対象領域として設定するようにしてもよい。   However, the number of processing target areas to be set, their sizes, and arrangement positions depend on the shooting environment, the type of monitoring target to be detected from the image of the processing target area, the purpose of use of the image, etc. You may make it differ. For example, when trying to detect another vehicle as an object to be monitored using a captured image of the camera 2, an area including an infinite point on the road in the original image 41 (the other image may be shown in the original image 41. A region having high characteristics) may be set as a processing target region.

あるいは、監視対象物として信号機や、路側に立設された道路標識を検知しようとする場合に、原画像41のうちの上部の領域(信号機や道路標識が存在する可能性が高い領域)を処理対象領域として設定するようにしてもよい。   Alternatively, when trying to detect a traffic signal or a road sign standing on the road side as an object to be monitored, an upper area (an area where there is a high possibility that a traffic signal or a road sign is present) in the original image 41 is processed. It may be set as a target area.

また、原画像41の全体を1つの処理対象領域として設定するようにしてもよい。また、複数の処理対象領域を設定する場合、そのうちの2つ以上の処理対象領域が互いに重なる部分を有していてもよい。   Further, the entire original image 41 may be set as one processing target area. Further, when a plurality of processing target areas are set, two or more of the processing target areas may have portions that overlap each other.

STEP2に続くSTEP3では、色別画像生成部32は、各処理対象領域毎に、4種類の色別画像42(R画像、G画像、B画像、Rx画像)を生成する。   In STEP 3 subsequent to STEP 2, the color-specific image generation unit 32 generates four types of color-specific images 42 (R image, G image, B image, Rx image) for each processing target region.

この処理は、具体的には、図6のフローチャートに示す如く実行される。色別画像生成部32は、まず、STEP3−1において、複数の処理対象領域のうちの1つを選択する。   Specifically, this process is executed as shown in the flowchart of FIG. First, the color-specific image generation unit 32 selects one of the plurality of processing target areas in STEP 3-1.

次いで、色別画像生成部32は、STEP3−2において、R画像42r、G画像42g及びB画像42bのうちの1つの特定色の画像と、Rx画像42rxとのうちの一方を基準輝度分布画像として生成する。   Next, the color-specific image generation unit 32 determines, in STEP 3-2, one of the R color image 42r, the G image 42g, and the B image 42b as one specific color image and the Rx image 42rx as a reference luminance distribution image. Generate as

ここで、上記特定色の画像は、本実施形態では、撮像素子22を構成するR受光画素、B受光画素、G受光画素、Rx受光画素のうち、最も個数の多いG受光画素に対応する色(緑)の画像とされている。従って、該特定色の画像は、本実施形態では、R画像42r、G画像42g及びB画像42bのうちのG画像42gである。   Here, in the present embodiment, the image of the specific color is a color corresponding to the largest number of G light receiving pixels among the R light receiving pixels, the B light receiving pixels, the G light receiving pixels, and the Rx light receiving pixels constituting the image sensor 22. (Green) image. Therefore, in this embodiment, the image of the specific color is the G image 42g among the R image 42r, the G image 42g, and the B image 42b.

そして、STEP3−2では、G画像42gとRx画像42rxとのうちの一方が基準輝度分布画像として生成される。この基準輝度分布画像は、選択中の処理対象領域に写る撮影対象の実際の輝度分布に対する適合度合が比較的高いものとなる輝度分布状態を有する画像を意味する。   In STEP 3-2, one of the G image 42g and the Rx image 42rx is generated as a reference luminance distribution image. This reference luminance distribution image means an image having a luminance distribution state that has a relatively high degree of matching with the actual luminance distribution of the subject to be photographed in the selected processing target area.

この場合、G画像42gとRx画像42rxとのうち、基準輝度分布画像として生成する画像は、原画像41のうち、処理対象領域に含まれるG画素の階調値と、該処理対象領域に含まれるRx画素の階調値とに基づいて選定される。   In this case, among the G image 42g and the Rx image 42rx, the image generated as the reference luminance distribution image is included in the gradation value of the G pixel included in the processing target area and the processing target area of the original image 41. Is selected based on the gradation value of the Rx pixel.

例えば、処理対象領域に含まれる全ての画素の総数(又は全てのG画素の総数)うち、所定の適正範囲内の階調値を有するG画素の個数の割合と、処理対象領域に含まれる全ての画素の総数(又は全てのRx画素の総数)うち、所定の適正範囲内の階調値を有するRx画素の個数の割合とが比較される。   For example, out of the total number of all the pixels included in the processing target area (or the total number of all G pixels), the ratio of the number of G pixels having a gradation value within a predetermined appropriate range, and all included in the processing target area Of the total number of pixels (or the total number of all Rx pixels) is compared with the ratio of the number of Rx pixels having gradation values within a predetermined appropriate range.

そして、G画像42g及びRx画像42rxのうち、上記割合がより大きい方の画素(G画素又Rx画素)に対応する色の画像が、基準輝度分布画像として生成する画像として選定される。   Then, an image of a color corresponding to a pixel (G pixel or Rx pixel) having a larger ratio among the G image 42g and the Rx image 42rx is selected as an image to be generated as a reference luminance distribution image.

ここで、G画素の階調値に関する上記適正範囲は、G画素の階調値の最大値よりも若干小さい所定の上限値と、G画素の階調値の最小値よりも若干大きい所定の下限値との間の範囲である。この適正範囲は、その範囲内の階調値を有するG画素が、所謂、白とび状態(受光画素の受光レベルが大き過ぎて、該受光画素の出力信号の強度が飽和した状態)や、黒つぶれ状態(受光画素の受光レベルが小さ過ぎて、該受光画素の出力信号の強度が微小なものとなる状態)とならないようにあらかじめ設定された範囲である。従って、G画素の階調値が上記適正範囲に収まっている場合には、そのG画素の階調値(あるいは該G画素に対応するG受光画素の出力信号の強度)は、撮影対象の実際の輝度を適正に反映した値となっているとみなせる。   Here, the appropriate range relating to the gradation value of the G pixel is a predetermined upper limit value slightly smaller than the maximum value of the G pixel gradation value and a predetermined lower limit value slightly larger than the minimum value of the G pixel gradation value. A range between values. This proper range includes a so-called whiteout state (a state where the light receiving level of the light receiving pixel is too high and the intensity of the output signal of the light receiving pixel is saturated) This range is set in advance so as not to be in a collapsed state (a state in which the light receiving level of the light receiving pixel is too small and the intensity of the output signal of the light receiving pixel becomes minute). Therefore, when the gradation value of the G pixel is within the above appropriate range, the gradation value of the G pixel (or the intensity of the output signal of the G light receiving pixel corresponding to the G pixel) It can be considered that the value appropriately reflects the brightness of the.

Rx画素の階調値に関する上記適正範囲も、G画素の階調値に関する適正範囲と同様にあらかじめ設定された範囲である。   The appropriate range related to the gradation value of the Rx pixel is also a preset range similar to the appropriate range related to the gradation value of the G pixel.

従って、選択中の処理対象領域に写っている撮影対象の輝度が全体的に比較的低輝度である場合(すなわち、Rx画素が黒つぶれ状態となりやすい場合)には、基本的には、G画像42gが基準輝度分布画像として生成する画像として選定される。また、選択中の処理対象領域に写っている撮影対象の輝度が全体的に比較的高輝度である場合(すなわち、G画素が白とび状態となりやすい場合)には、基本的には、Rx画像42rxが基準輝度分布画像として生成する画像として選定される。   Therefore, when the luminance of the subject to be photographed in the selected processing target area is relatively low overall (that is, when the Rx pixel tends to be blacked out), basically, the G image 42g is selected as an image to be generated as a reference luminance distribution image. In addition, when the luminance of the subject to be captured in the processing target area being selected is relatively high overall (that is, when the G pixel tends to be overexposed), basically, the Rx image 42rx is selected as an image to be generated as a reference luminance distribution image.

なお、処理対象領域におけるG画素の階調値及びRx画素の階調値のそれぞれの平均値やヒストグラムに基づいて、基準輝度分布画像として生成する画像(G画像又はRx画像)を選定するようにしてもよい。   Note that an image (G image or Rx image) to be generated as a reference luminance distribution image is selected based on the average value or the histogram of the gradation value of the G pixel and the gradation value of the Rx pixel in the processing target region. May be.

基準輝度分布画像としてのG画像又はRx画像は、次のように生成される。まず、基準輝度分布画像としてのG画像を生成する場合について説明する。   The G image or Rx image as the reference luminance distribution image is generated as follows. First, a case where a G image as a reference luminance distribution image is generated will be described.

G画像42gは、図7に示すように、各画素の階調値として、G値(G(緑)の輝度値)を割り当てた画像である。図7では、各画素の階調値(G値)をG'i,j(i=1,2…,m、j=1,2,…,n)で表している。   As shown in FIG. 7, the G image 42g is an image to which a G value (G (green) luminance value) is assigned as a gradation value of each pixel. In FIG. 7, the gradation value (G value) of each pixel is represented by G′i, j (i = 1, 2,..., M, j = 1, 2,..., N).

基準輝度分布画像としてのG画像42gの各画素のG値G'i,jは、次のよう決定される。   The G value G′i, j of each pixel of the G image 42g as the reference luminance distribution image is determined as follows.

G画像42gの画素のうち、原画像41のG画素(階調値がSgi,jである画素)に対応する配置位置の画素(配置位置が同じ画素)については、次式(1)で示す如く、対応する原画像41のG画素の階調値Sgi,jが、そのままG画像42gの当該画素のG値(G'i,j)として決定される。例えば、図2(b)に示す原画像41の(i,j)=(2,3)の配置位置の画素の階調値(Sg2,3)が、G画像42gの(i,j)=(2,3)の配置位置の画素のG値(G'2,3)として決定される。   Among the pixels of the G image 42g, the pixel at the arrangement position (the pixel having the same arrangement position) corresponding to the G pixel of the original image 41 (the pixel whose gradation value is Sgi, j) is expressed by the following equation (1). As described above, the gradation value Sgi, j of the G pixel of the corresponding original image 41 is directly determined as the G value (G′i, j) of the pixel of the G image 42g. For example, the gradation value (Sg2,3) of the pixel at the position of (i, j) = (2,3) in the original image 41 shown in FIG. 2B is (i, j) = It is determined as the G value (G′2, 3) of the pixel at the arrangement position of (2, 3).


G'i,j=Sgi,j ……(1)

また、G画像42gの画素のうち、原画像41のG画素以外の画素(R画素又はB画素又はRx画素)に対応する配置位置の画素については、その画素の周囲の配置位置のG画素の階調値を少なくとも用いて補完的にG値(G'i,j)が決定される。

G'i, j = Sgi, j (1)

In addition, among the pixels of the G image 42g, regarding the pixels at the arrangement positions corresponding to the pixels (R pixels, B pixels, or Rx pixels) other than the G pixels of the original image 41, the G pixels at the arrangement positions around the pixels are changed. The G value (G′i, j) is complementarily determined using at least the gradation value.

具体的には、G画像42gの画素のうち、原画像41のR画素及びB画素に対応する配置位置の画素については、その画素の上下及び左右に隣接する4つのG画素の階調値Sgi+1,j、Sgi-1,j、Sgi,j+1、Sgi,j-1を基に、次式(2),(3)のIg、Jgの大小関係に応じて、式(4)又は(5)又は(6)によりG値(G'i,j)が決定される。   Specifically, among the pixels of the G image 42g, for the pixels at the arrangement positions corresponding to the R pixel and the B pixel of the original image 41, the gradation values Sgi of the four G pixels adjacent to the upper, lower, left, and right sides of the pixel. On the basis of + 1, j, Sgi-1, j, Sgi, j + 1, Sgi, j-1, depending on the magnitude relationship between Ig and Jg in the following formulas (2) and (3), formula (4) Alternatively, the G value (G′i, j) is determined by (5) or (6).


Ig=|Sgi+1,j−Sgi-1,j| ……(2)
Jg=|Sgi,j+1−Sgi,j-1| ……(3)
Ig<Jgである場合
G'i,j=(Sgi+1,j+Sgi-1,j)/2 ……(4)
Ig>Jgである場合
G'i,j=(Sgi,j+1+Sgi,j-1)/2 ……(5)
Ig=Jgである場合
G'i,j=(Sgi,j+1+Sgi,j-1+Sgi+1,j+Sgi-1,j)/4 ……(6)

また、G画像42gの画素のうち、原画像41のRx画素に対応する配置位置の画素については、その画素の上下及び左右に隣接する4つのG画素の階調値Sgi+1,j、Sgi-1,j、Sgi,j+1、Sgi,j-1と、対応するRx画素の階調値Srxi,jと、その上下及び左右に1画素の間隔をおいて存在する4つのRx画素の階調値Srxi+2,j、Srxi-2,j、Srxi,j+2、Srxi,j-2とを基に、次式(7),(8)のIg、Jgの大小関係に応じて、式(9)又は(10)又は(11)によりG値(G'i,j)が決定される。

Ig = | Sgi + 1, j−Sgi-1, j | (2)
Jg = | Sgi, j + 1−Sgi, j-1 | (3)
When Ig <Jg G'i, j = (Sgi + 1, j + Sgi-1, j) / 2 (4)
When Ig> Jg G'i, j = (Sgi, j + 1 + Sgi, j-1) / 2 (5)
When Ig = Jg G'i, j = (Sgi, j + 1 + Sgi, j-1 + Sgi + 1, j + Sgi-1, j) / 4 (6)

Further, among the pixels of the G image 42g, for the pixels at the arrangement positions corresponding to the Rx pixels of the original image 41, the gradation values Sgi + 1, j, Sgi of the four G pixels adjacent to the upper, lower, left, and right sides of the pixel. −1, j, Sgi, j + 1, Sgi, j−1, the corresponding Rx pixel gradation value Srxi, j, and four Rx pixels that exist at intervals of 1 pixel above and below and on the left and right Based on the gradation values Srxi + 2, j, Srxi-2, j, Srxi, j + 2 and Srxi, j-2, depending on the magnitude relationship between Ig and Jg in the following equations (7) and (8) The G value (G′i, j) is determined by the equation (9) or (10) or (11).


Ig=|Sgi+1,j−Sgi-1,j|+|2Srxi,j−Srxi+2,j−Srxi-2,j| ……(7)
Jg=|Sgi,j+1−Sgi,j-1|+|2Srxi,j−Srxi,j+2−Srxi,j-2| ……(8)
Ig<Jgである場合
G'i,j=(Sgi+1,j+Sgi-1,j)/2
+(2Srxi,j−Srxi+2,j−Srxi-2,j)/4 ……(9)
Ig>Jgである場合
G'i,j=(Sgi,j+1+Sgi,j-1)/2
+(2Srxi,j−Srxi,j+2−Srxi,j-2)/4 ……(10)
Ig=Jgである場合
G'i,j=(Sgi,j+1+Sgi,j-1+Sgi+1,j+Sgi-1,j)/4
+(4Srxi,j−Srxi+2,j−Srxi-2,j−Srxi,j+2−Srxi,j-2)/8
……(11)

以上の処理(デモザイキング処理)により、原画像41のG画素の階調値(G値)を用いて、処理対象領域のG画像42gの各画素に、緑の階調値(輝度値)を示すG値が割り当てられる。これにより、基準輝度分布画像としてのG画像42g(緑色階調の輝度分布画像)が生成される。

Ig = | Sgi + 1, j-Sgi-1, j | + | 2Srxi, j-Srxi + 2, j-Srxi-2, j | (7)
Jg = | Sgi, j + 1−Sgi, j−1 | + | 2Srxi, j−Srxi, j + 2−Srxi, j−2 | (8)
When Ig <Jg G'i, j = (Sgi + 1, j + Sgi-1, j) / 2
+ (2Srxi, j-Srxi + 2, j-Srxi-2, j) / 4 (9)
When Ig> Jg G'i, j = (Sgi, j + 1 + Sgi, j-1) / 2
+ (2Srxi, j-Srxi, j + 2-Srxi, j-2) / 4 (10)
When Ig = Jg G'i, j = (Sgi, j + 1 + Sgi, j-1 + Sgi + 1, j + Sgi-1, j) / 4
+ (4Srxi, j-Srxi + 2, j-Srxi-2, j-Srxi, j + 2-Srxi, j-2) / 8
...... (11)

Through the above process (demosaicing process), using the G pixel gradation value (G value) of the original image 41, a green gradation value (luminance value) is assigned to each pixel of the G image 42g in the processing target region. The indicated G value is assigned. As a result, a G image 42g (green tone luminance distribution image) as a reference luminance distribution image is generated.

次に、基準輝度分布画像としてのRx画像42rxを生成する場合について説明する。   Next, a case where the Rx image 42rx as the reference luminance distribution image is generated will be described.

Rx画像42rxは、図8に示すように、各画素の階調値として、Rx値(赤の輝度値)を割り当てた画像である。図8では、各画素の階調値(Rx値)をRx'i,j(i=1,2…,m、j=1,2,…,n)で表している。   As shown in FIG. 8, the Rx image 42rx is an image in which an Rx value (red luminance value) is assigned as a gradation value of each pixel. In FIG. 8, the gradation value (Rx value) of each pixel is represented by Rx′i, j (i = 1, 2,..., M, j = 1, 2,..., N).

基準輝度分布画像としてのRx画像42rxの各画素のRx値(Rx'i,j)は、次のよう決定される。   The Rx value (Rx′i, j) of each pixel of the Rx image 42rx as the reference luminance distribution image is determined as follows.

Rx画像42rxの画素のうち、原画像41のRx画素(階調値がSrxi,jである画素)に対応する配置位置の画素(配置位置が同じ画素)については、次式(12)で示す如く、対応する原画像41のRx画素の階調値Srxi,jが、そのままRx画像42rxの当該画素のRx値(Rx'i,j)として決定される。   Among the pixels of the Rx image 42rx, the pixel at the arrangement position (the pixel having the same arrangement position) corresponding to the Rx pixel of the original image 41 (the pixel whose gradation value is Srxi, j) is expressed by the following equation (12). As described above, the gradation value Srxi, j of the Rx pixel of the corresponding original image 41 is determined as it is as the Rx value (Rx′i, j) of the pixel of the Rx image 42rx.


Rx'i,j=Srxi,j ……(12)

また、Rx画像42rxの画素のうち、原画像41のRx画素以外の画素(R画素又はG画素又はB画素)に対応する配置位置の画素については、その画素の周囲のRx画素の階調値を少なくとも用いて補完的にRx値(Rx'i,j)が決定される。

Rx'i, j = Srxi, j (12)

Further, among the pixels of the Rx image 42rx, for the pixels at the arrangement positions corresponding to the pixels (R pixel, G pixel, or B pixel) other than the Rx pixels of the original image 41, the gradation values of the Rx pixels around the pixel Rx value (Rx′i, j) is determined complementarily using at least.

具体的には、Rx画像42rxの画素のうち、原画像41のR画素に対応する配置位置の画素については、その画素の右斜め上、右斜め下、左斜め上、左斜め下に隣接する4つのRx画素の階調値Srxi-1,j+1、Srxi+1,j+1、Srxi-1,j-1、Srxi+1,j-1と、対応するR画素の階調値Sri,jと、その右斜め上、右斜め下、左斜め上、左斜め下に1画素の間隔をおいて存在する4つのR画素の階調値Sri-2,j+2、Sri+2,j+2、Sri-2,j-2、Sri+2,j-2とを基に、次式(13),(14)のIrx、Jrxの大小関係に応じて、式(15)又は(16)又は(17)によりRx値(Rx'i,j)が決定される。   Specifically, among the pixels of the Rx image 42rx, the pixel at the arrangement position corresponding to the R pixel of the original image 41 is adjacent to the upper right, lower right, upper left, and lower left of the pixel. Four Rx pixel gradation values Srxi-1, j + 1, Srxi + 1, j + 1, Srxi-1, j-1, Srxi + 1, j-1 and corresponding R pixel gradation values Sri , j and the gradation values Sri-2, j + 2, Sri + 2, of the four R pixels existing at an interval of one pixel at the upper right, lower right, upper left, and lower left. Based on j + 2, Sri-2, j-2, Sri + 2, j-2, depending on the magnitude relationship between Irx and Jrx in the following formulas (13) and (14), formula (15) or ( The Rx value (Rx′i, j) is determined by 16) or (17).


Irx=|Srxi+1,j+1−Srxi-1,j-1|
+|2Sri,j−Sri+2,j+2−Sri-2,j-2| ……(13)
Jrx=|Srxi+1,j-1−Srxi-1,j+1|
+|2Sri,j−Sri+2,j-2−Sri-2,j+2| ……(14)
Irx<Jrxである場合
Rx'i,j=(Srxi+1,j+1+Srxi-1,j-1)/2
+(2Sri,j−Sri+2,j+2−Sri-2,j-2)/4 ……(15)
Irx>Jrxである場合
Rx'i,j=(Srxi+1,j-1+Srxi-1,j+1)/2
+(2Sri,j−Sri+2,j-2−Sri-2,j+2)/4 ……(16)
Irx=Jrxである場合
Rx'i,j=(Srxi+1,j-1+Srxi-1,j+1+Srxi+1,j+1+Srxi-1,j-1)/4
+(4Sri,j−Sri+2,j+2−Sri-2,j-2−Sri+2,j-2−Sri-2,j+2)/8
……(17)

また、Rx画像42rxの画素のうち、原画像41のB画素に対応する配置位置の画素については、R画素に対応する配置位置の画素と同様に、その画素に斜め方向で隣接する4つのW画素の階調値Srxi-1,j+1、Srxi+1,j+1、Srxi-1,j-1、Srxi+1,j-1と、対応するB画素の階調値Sbi,jと、その斜め方向に1画素の間隔をおいて存在する4つのB画素の階調値Sbi-2,j+2、Sbi+2,j+2、Sbi-2,j-2、Sbi+2,j-2とを基に、次式(18),(19)のIrx、Jrxの大小関係に応じて、式(20)又は(21)又は(22)によりRx値(Rx'i,j)が決定される。

Irx = | Srxi + 1, j + 1-Srxi-1, j-1 |
+ | 2Sri, j-Sri + 2, j + 2-Sri-2, j-2 | (13)
Jrx = | Srxi + 1, j-1-Srxi-1, j + 1 |
+ | 2Sri, j-Sri + 2, j-2-Sri-2, j + 2 | (14)
When Irx <Jrx, Rx'i, j = (Srxi + 1, j + 1 + Srxi-1, j-1) / 2
+ (2Sri, j-Sri + 2, j + 2-Sri-2, j-2) / 4 (15)
When Irx> Jrx Rx'i, j = (Srxi + 1, j-1 + Srxi-1, j + 1) / 2
+ (2Sri, j-Sri + 2, j-2-Sri-2, j + 2) / 4 (16)
When Irx = Jrx Rx'i, j = (Srxi + 1, j-1 + Srxi-1, j + 1 + Srxi + 1, j + 1 + Srxi-1, j-1) / 4
+ (4Sri, j-Sri + 2, j + 2-Sri-2, j-2-Sri + 2, j-2-Sri-2, j + 2) / 8
...... (17)

Further, among the pixels of the Rx image 42rx, the pixels at the arrangement position corresponding to the B pixel of the original image 41 are four pixels adjacent to the pixel in the oblique direction, similarly to the pixels at the arrangement position corresponding to the R pixel. The gradation values Srxi-1, j + 1, Srxi + 1, j + 1, Srxi-1, j-1, Srxi + 1, j-1 of the pixel and the gradation values Sbi, j of the corresponding B pixel The gradation values Sbi-2, j + 2, Sbi + 2, j + 2, Sbi-2, j-2, Sbi + 2, of the four B pixels existing at an interval of one pixel in the diagonal direction. Based on j-2, the Rx value (Rx′i, j) is obtained by the equation (20) or (21) or (22) according to the magnitude relationship between Irx and Jrx in the following equations (18) and (19). Is determined.


Irx=|Srxi+1,j+1−Srxi-1,j-1|
+|2Sbi,j−Sbi+2,j+2−Sbi-2,j-2| ……(18)
Jrx=|Srxi+1,j-1−Srxi-1,j+1|
+|2Sbi,j−Sbi+2,j-2−Sbi-2,j+2| ……(19)
Irx<Jrxである場合
Rx'i,j=(Srxi+1,j+1+Srxi-1,j-1)/2
+(2Sbi,j−Sbi+2,j+2−Sbi-2,j-2)/4 ……(20)
Irx>Jrxである場合
Rx'i,j=(Srxi+1,j-1+Srxi-1,j+1)/2
+(2Sbi,j−Sbi+2,j-2−Sbi-2,j+2)/4 ……(21)
Irx=Jrxである場合
Rx'i,j=(Srxi+1,j-1+Srxi-1,j+1+Srxi+1,j+1+Srxi-1,j-1)/4
+(4Sbi,j−Sbi+2,j+2−Sbi-2,j-2−Sbi+2,j-2−Sbi-2,j+2)/8
……(22)

また、Rx画像42rxの画素のうち、原画像41のG画素に対応する配置位置の画素については、その画素に上下又は左右に隣接する2つのRx画素の階調値(Srxi-1,j、Srxi+1,j)又は(Srxi,j-1、Srxi,j+1)と、対応するG画素の階調値Sgi,jと、その上下又は左右に1画素の間隔をおいて存在する2つのG画素の階調値(Sgi-2,j、Sgi+2,j)又は(Sgi,j-2、Sgi,j+2)とを基に、次式(23)又は(24)によりRx値(Rx'i,j)が決定される。

Irx = | Srxi + 1, j + 1-Srxi-1, j-1 |
+ | 2Sbi, j-Sbi + 2, j + 2-Sbi-2, j-2 | (18)
Jrx = | Srxi + 1, j-1-Srxi-1, j + 1 |
+ | 2Sbi, j-Sbi + 2, j-2-Sbi-2, j + 2 | (19)
When Irx <Jrx, Rx'i, j = (Srxi + 1, j + 1 + Srxi-1, j-1) / 2
+ (2Sbi, j-Sbi + 2, j + 2-Sbi-2, j-2) / 4 (20)
When Irx> Jrx Rx'i, j = (Srxi + 1, j-1 + Srxi-1, j + 1) / 2
+ (2Sbi, j-Sbi + 2, j-2-Sbi-2, j + 2) / 4 (21)
When Irx = Jrx Rx'i, j = (Srxi + 1, j-1 + Srxi-1, j + 1 + Srxi + 1, j + 1 + Srxi-1, j-1) / 4
+ (4Sbi, j-Sbi + 2, j + 2-Sbi-2, j-2-Sbi + 2, j-2-Sbi-2, j + 2) / 8
...... (22)

Further, among the pixels of the Rx image 42rx, for the pixel at the arrangement position corresponding to the G pixel of the original image 41, the gradation values (Srxi-1, j, Srxi + 1, j) or (Srxi, j−1, Srxi, j + 1), the corresponding G pixel gradation value Sgi, j, and 2 above and below or on the left and right sides of the pixel 2 Based on the gradation values (Sgi-2, j, Sgi + 2, j) or (Sgi, j-2, Sgi, j + 2) of two G pixels, Rx is obtained by the following equation (23) or (24). The value (Rx'i, j) is determined.


上下にRx画素が隣接する場合
Rx'i,j=(Srxi+1,j+Srxi-1,j)/2
+(2Sgi,j−Sgi+2,j−Sgi-2,j)/4 ……(23)
左右にRx画素が隣接する場合
Rx'i,j=(Srxi,j+1+Srxi,j-1)/2
+(2Sgi,j−Sgi,j+2−Sgi,j-2)/4 ……(24)

以上の処理(デモザイキング処理)により、原画像41のRx画素の階調値(Rx値)を用いて、処理対象領域のRx画像42rxの各画素に、赤の階調値(輝度値)を示すRx値が割り当てられる。これにより、基準輝度分布画像としてのRx画像42rx(赤色階調の輝度分布画像)が生成される。

When Rx pixels are adjacent on the top and bottom Rx'i, j = (Srxi + 1, j + Srxi-1, j) / 2
+ (2Sgi, j-Sgi + 2, j-Sgi-2, j) / 4 (23)
When Rx pixels are adjacent to the left and right Rx'i, j = (Srxi, j + 1 + Srxi, j-1) / 2
+ (2Sgi, j-Sgi, j + 2-Sgi, j-2) / 4 (24)

Through the above process (demosaicing process), using the gradation value (Rx value) of the Rx pixel of the original image 41, a red gradation value (luminance value) is assigned to each pixel of the Rx image 42rx in the processing target region. The indicated Rx value is assigned. Thereby, an Rx image 42rx (a luminance distribution image of red gradation) as a reference luminance distribution image is generated.

以上が、STEP3−2の処理の詳細である。   The above is the details of the processing in STEP 3-2.

色別画像生成部32は、次に、STEP3−3において、基準輝度分布画像として生成した画像(G画像又はRx画像)以外の残りの3つの色別画像(42r,42b,42rx、又は42r,42b,42g)を生成する。この場合、選択中の処理対象領域における残りの3つの色別画像の生成は、基準輝度分布画像の輝度分布を反映させて行なわれる。なお、このSTEP3−3の処理の詳細は後述する。   Next, the color-specific image generation unit 32 determines the remaining three color-specific images (42r, 42b, 42rx, or 42r, 42) other than the image (G image or Rx image) generated as the reference luminance distribution image in STEP3-3. 42b, 42g). In this case, the remaining three color-specific images in the selected processing target region are generated by reflecting the luminance distribution of the reference luminance distribution image. Details of STEP 3-3 will be described later.

次いで、色別画像生成部32は、STEP3−4において、全ての処理対象領域を選択したか否かを判断する。そして、この判断結果が否定的である場合には、STEP3−1で新たな処理対象領域を選択し、その選択した処理対象領域について、STEP3−2、3−3の処理が同様に実行される。また、STEP3−4の判断結果が肯定的になれば、STEP3の処理が完了する。これにより全ての処理対象領域について、色別画像42が生成される。   Next, the color-specific image generation unit 32 determines whether or not all processing target areas have been selected in STEP 3-4. If the determination result is negative, a new process target area is selected in STEP 3-1, and the processes of STEP 3-2 and 3-3 are similarly executed for the selected process target area. . If the determination result in STEP 3-4 is affirmative, the processing in STEP 3 is completed. As a result, color-specific images 42 are generated for all processing target areas.

上記STEP3−3の処理の詳細を以下に説明する。まず、STEP3−2において、G画像を基準輝度分布画像として生成した場合に、R画像42r、B画像42b、及びRx画像42rxを生成する処理について説明する。   Details of the processing of STEP 3-3 will be described below. First, in STEP 3-2, a process of generating the R image 42r, the B image 42b, and the Rx image 42rx when the G image is generated as the reference luminance distribution image will be described.

まず、R画像42rは、図9に示すように、各画素の階調値として、R値(赤の輝度値)を割り当てた画像である。図9では、各画素の階調値(R値)をR'i,j(i=1,2…,m、j=1,2,…,n)で表している。   First, as shown in FIG. 9, the R image 42r is an image to which an R value (red luminance value) is assigned as the gradation value of each pixel. In FIG. 9, the gradation value (R value) of each pixel is represented by R′i, j (i = 1, 2,..., M, j = 1, 2,..., N).

そして、選択中の処理対象領域におけるR画像42rを、基準輝度分布画像として生成したG画像42gの輝度分布を反映させて生成する処理では、該R画像42rの各画素のR値(R'i,j)は、次のよう決定される。   In the process of generating the R image 42r in the processing target region being selected by reflecting the luminance distribution of the G image 42g generated as the reference luminance distribution image, the R value (R′i) of each pixel of the R image 42r is generated. , j) is determined as follows.

すなわち、R画像42rの各画素のうち、原画像41のR画素に対応する配置位置の画素(配置位置が同じ画素)については、式(26)で示す如く、対応する原画像41のR画素の階調値Sri,jが、R画像42rの当該画素のR値(R'i,j)として決定される。   That is, among the pixels of the R image 42r, the pixel at the arrangement position corresponding to the R pixel of the original image 41 (pixels having the same arrangement position) is represented by the R pixel of the corresponding original image 41 as shown in Expression (26). Gradation value Sri, j is determined as the R value (R′i, j) of the pixel of the R image 42r.


R'i,j=Sri,j ……(26)

また、R画像42rの各画素のうち、原画像41のR画素以外の画素(G画素又はB画素又はRx画素)に対応する配置位置の画素のR値(R'i,j)は、当該画素の周囲のR画素の階調値(原画像41での階調値)と、当該画素及びその周囲の画素のG値(G画像42gでの階調値(G値))とを用いて決定される。

R'i, j = Sri, j (26)

In addition, among the pixels of the R image 42r, the R value (R′i, j) of the pixel at the arrangement position corresponding to a pixel other than the R pixel of the original image 41 (G pixel, B pixel, or Rx pixel) is Using the gradation value of the R pixel around the pixel (gradation value in the original image 41) and the G value of the pixel and the surrounding pixels (gradation value (G value) in the G image 42g). It is determined.

具体的には、R画像42rの画素のうち、原画像41のB画素に対応する配置位置の画素については、その画素の上下及び左右に1画素の間隔をおいて存在する4つのR画素(原画像41中のR画素)の階調値Sri+2,j、Sri-2,j、Sri,j+2、Sri,j-2と、対応する画素(G画像42g中の画素)のG値(輝度値)G'i,jと、その上下及び左右に1画素の間隔をおいて存在する4つの画素(G画像42g中の画素)のG値(輝度値)G'i+2,j、G'i-2,j、G'i,j+2、G'i,j-2とを基に、次式(27),(28)のIr、Jrの大小関係に応じて、式(29)又は(30)又は(31)によりR値(R'i,j)が決定される。   Specifically, among the pixels of the R image 42r, with respect to the pixel at the arrangement position corresponding to the B pixel of the original image 41, four R pixels (one pixel interval above and below and right and left of the pixel) ( The gradation value Sri + 2, j, Sri-2, j, Sri, j + 2, Sri, j-2 of the original image 41) and the corresponding pixel (pixel in the G image 42g) G Value (luminance value) G′i, j, and G values (luminance values) G′i + 2, of four pixels (pixels in the G image 42g) existing at intervals of one pixel above and below and on the left and right. Based on j, G'i-2, j, G'i, j + 2, G'i, j-2, depending on the magnitude relationship between Ir and Jr in the following equations (27) and (28), The R value (R′i, j) is determined by the equation (29), (30), or (31).


Ir=|Sri+2,j−Sri-2,j|+|2G'i,j−G'i+2,j−G'i-2,j| ……(27)
Jr=|Sri,j+2−Sri,j-2|+|2G'i,j−G'i,j+2−G'i,j-2| ……(28)
Ir<Jrである場合
R'i,j=(Sri+2,j+Sri-2,j)/2
+(2G'i,j−G'i+2,j−G'i-2,j)/2 ……(29)
Ir>Jrである場合
R'i,j=(Sri,j+2+Sri,j-2)/2
+(2G'i,j−G'i,j+2−G'i,j-2)/2 ……(30)
Ir=Jrである場合
R'i,j=(Sri,j+2+Sri,j-2+Sri+2,j+Sri-2,j)/4
+(4G'i,j−G'i+2,j−G'i-2,j−G'i,j+2−G'i,j-2)/4
……(31)

また、R画像42rの画素のうち、原画像41のG画素に対応する配置位置の画素については、その画素の上下左右のいずれかに隣接する1つのR画素(原画像41中の画素)の階調値Sri+1,j又はSri-1,j又はSri,j+1又はSri,j-1と、対応する画素(G画像42g中の画素)のG値(輝度値)G'i,jと、その上下左右のいずれかに隣接する1つの画素(G画像42g中の画素)のG値(輝度値)G'i+1,j、G'i-1,j、G'i,j+1、G'i,j-1とを基に、次式(32)又は(33)又は(34)又は(35)によりR値(Ci,j_r)が決定される。

Ir = | Sri + 2, j−Sri−2, j | + | 2G′i, j−G′i + 2, j−G′i−2, j | (27)
Jr = | Sri, j + 2-Sri, j-2 | + | 2G'i, j-G'i, j + 2-G'i, j-2 | (28)
When Ir <Jr R'i, j = (Sri + 2, j + Sri-2, j) / 2
+ (2G'i, j-G'i + 2, j-G'i-2, j) / 2 (29)
When Ir> Jr R'i, j = (Sri, j + 2 + Sri, j-2) / 2
+ (2G'i, j-G'i, j + 2-G'i, j-2) / 2 (30)
When Ir = Jr R'i, j = (Sri, j + 2 + Sri, j-2 + Sri + 2, j + Sri-2, j) / 4
+ (4G'i, j-G'i + 2, j-G'i-2, j-G'i, j + 2-G'i, j-2) / 4
...... (31)

Further, among the pixels of the R image 42r, for the pixel at the arrangement position corresponding to the G pixel of the original image 41, one R pixel (a pixel in the original image 41) adjacent to any one of the upper, lower, left, and right of the pixel. The gradation value Sri + 1, j or Sri-1, j or Sri, j + 1 or Sri, j-1 and the G value (luminance value) G′i, of the corresponding pixel (the pixel in the G image 42g) j and the G value (luminance value) G′i + 1, j, G′i−1, j, G′i, of one pixel (a pixel in the G image 42g) adjacent to either the top, bottom, left, or right thereof Based on j + 1, G′i, j−1, the R value (Ci, j_r) is determined by the following equation (32) or (33) or (34) or (35).


下側にR画素が隣接する場合
R'i,j=Sri+1,j+(G'i,j−G'i+1,j) ……(32)
上側にR画素が隣接する場合
R'i,j=Sri-1,j+(G'i,j−G'i-1,j) ……(33)
右側にR画素が隣接する場合
R'i,j=Sri,j+1+(G'i,j−G'i,j+1) ……(34)
左側にR画素が隣接する場合
R'i,j=Sri,j-1+(G'i,j−G'i,j-1) ……(35)

また、R画像42rの画素のうち、原画像41のRx画素に対応する配置位置の画素については、その画素の右斜め上及び左斜め下、あるいは、左斜め上及び右斜め下に隣接する2つのR画素(原画像41中の画素)の階調値(Sri-1,j+1,Sri+1,j-1)又は(Sri-1,j−1,Sri+1,j+1)と、対応する画素(G画像42g中の画素)のG値(輝度値)G'i,jと、その右斜め上及び左斜め下、あるいは、左斜め上及び右斜め下に隣接する2つの画素(G画像42g中の画素)のG値(輝度値)(G'i-1,j+1,G'i+1,j-1)又は(G'i-1,j−1,G'i+1,j+1)とを基に、次式(36)又は(37)によりR値(R'i,j)が決定される。

When R pixel is adjacent to the lower side R′i, j = Sri + 1, j + (G′i, j−G′i + 1, j) (32)
When R pixel is adjacent on the upper side R′i, j = Sri−1, j + (G′i, j−G′i−1, j) (33)
When R pixel is adjacent to the right side R′i, j = Sri, j + 1 + (G′i, j−G′i, j + 1) (34)
When R pixel is adjacent to the left side R'i, j = Sri, j-1 + (G'i, j-G'i, j-1) (35)

Among the pixels of the R image 42r, the pixels at the arrangement positions corresponding to the Rx pixels of the original image 41 are adjacent to the upper right corner and the lower left corner, or the upper left corner and the lower right corner of the pixel. The gradation values (Sri-1, j + 1, Sri + 1, j-1) or (Sri-1, j-1, Sri + 1, j + 1) of two R pixels (pixels in the original image 41) And the G value (luminance value) G′i, j of the corresponding pixel (the pixel in the G image 42g) and two adjacent pixels on the upper right and lower left sides, or on the upper left and lower right sides. G value (luminance value) (G′i−1, j + 1, G′i + 1, j−1) or (G′i−1, j−1, G−1) of a pixel (pixel in the G image 42g) Based on 'i + 1, j + 1), the R value (R'i, j) is determined by the following equation (36) or (37).


右斜め上及び左斜め下にR画素が隣接する場合
R'i,j=(Sri+1,j-1+Sri-1,j+1)/2
+(2G'i,j−G'i+1,j-1−G'i-1,j+1)/2 ……(36)
左斜め上及び右斜め下にR画素が隣接する場合
R'i,j=(Sri+1,j+1+Sri-1,j-1)/2
+(2G'i,j−G'i+1,j+1−G'i-1,j-1)/2 ……(37)

選択中の処理対象領域において、G画像42gを基準輝度分布画像として生成した場合、以上のようにして、R画像42rの各画素のうち、原画像41のR画素に対応する配置位置の画素以外の各画素のR値(R'i,j)は、当該画素の周囲のR画素の階調値(原画像41における階調値)に応じて決定される基本値(式(29)〜(37)のそれぞれの右辺の第1項)を、当該画素及びその周囲の画素のG値(G画像42gにおけるG値)に応じて決定される補正値(式(29)〜(37)のそれぞれの右辺の第2項)により補正することによって、決定される。

R'i, j = (Sri + 1, j-1 + Sri-1, j + 1) / 2 when R pixels are adjacent to the upper right and lower left
+ (2G′i, j−G′i + 1, j−1−G′i−1, j + 1) / 2 (36)
R'i, j = (Sri + 1, j + 1 + Sri-1, j-1) / 2 when R pixel is adjacent to upper left and lower right
+ (2G'i, j-G'i + 1, j + 1-G'i-1, j-1) / 2 (37)

When the G image 42g is generated as the reference luminance distribution image in the processing target region being selected, the pixels other than the pixel at the arrangement position corresponding to the R pixel of the original image 41 among the respective pixels of the R image 42r as described above. The R value (R′i, j) of each pixel is determined based on the gradation value (gradation value in the original image 41) of the R pixel around the pixel (expressions (29) to (29)). 37) is the correction value (Equations (29) to (37)) determined according to the G value (G value in the G image 42g) of the pixel and the surrounding pixels. This is determined by correcting according to the second term on the right-hand side.

そして、R画像42rの各画素のうち、原画像41のR画素に対応する配置位置の各画素のR値(R'i,j)は、当該画素に対応する原画像41のR画素の階調値Sri,jに一致するように決定される。   The R value (R′i, j) of each pixel at the arrangement position corresponding to the R pixel of the original image 41 among the pixels of the R image 42r is the level of the R pixel of the original image 41 corresponding to the pixel. It is determined so as to coincide with the key value Sri, j.

これにより選択中の処理対象領域におけるR画像42rが、基準輝度分布画像としてのG画像42gの輝度分布を反映させて生成される。   Thereby, the R image 42r in the processing target region being selected is generated by reflecting the luminance distribution of the G image 42g as the reference luminance distribution image.

次に、B画像42bは、図10に示すように、各画素の階調値として、B値(青の輝度値)を割り当てた画像である。図10では、各画素の階調値(B値)をB'i,j(i=1,2…,m、j=1,2,…,n)で表している。   Next, as shown in FIG. 10, the B image 42b is an image to which a B value (blue luminance value) is assigned as the gradation value of each pixel. In FIG. 10, the gradation value (B value) of each pixel is represented by B′i, j (i = 1, 2,..., M, j = 1, 2,..., N).

そして、選択中の処理対象領域におけるB画像42bを、基準輝度分布画像として生成したG画像42gの輝度分布を反映させて生成する処理では、該B画像42bの各画素のB値(B'i,j)は、R画像42rの各画素のR値(R'i,j)と同様の仕方で決定される。   In the process of generating the B image 42b in the processing target region being selected by reflecting the luminance distribution of the G image 42g generated as the reference luminance distribution image, the B value (B′i) of each pixel of the B image 42b is generated. , j) is determined in the same manner as the R value (R′i, j) of each pixel of the R image 42r.

すなわち、B画像42bの各画素のうち、原画像41のB画素に対応する配置位置の画素(配置位置が同じ画素)については、式(38)で示す如く、対応する原画像41のB画素の階調値Sbi,jが、B画像42bの当該画素のB値(B'i,j)として決定される。   That is, among the pixels of the B image 42b, the pixels at the arrangement position corresponding to the B pixels of the original image 41 (the pixels at the same arrangement position) are represented by the B pixels of the corresponding original image 41 as shown in Expression (38). Gradation value Sbi, j is determined as the B value (B′i, j) of the pixel of the B image 42b.


B'i,j=Sbi,j ……(38)

また、B画像42bの各画素のうち、原画像41のB画素以外の画素(R画素又はG画素又はRx画素)に対応する配置位置の画素のB値(B'i,j)は、当該画素の周囲のB画素の階調値(原画像41での階調値)と、当該画素及びその周囲の画素のG値(G画像42gでの階調値(G値))とを用いて決定される。

B'i, j = Sbi, j (38)

In addition, among the pixels of the B image 42b, the B value (B′i, j) of the pixel at the arrangement position corresponding to the pixels other than the B pixel of the original image 41 (R pixel, G pixel, or Rx pixel) is Using the gradation value of the B pixel around the pixel (gradation value in the original image 41) and the G value of the pixel and the surrounding pixels (gradation value (G value) in the G image 42g) It is determined.

具体的には、B画像42bの画素のうち、原画像41のR画素に対応する配置位置の画素については、その画素の上下及び左右に1画素の間隔をおいて存在する4つのB画素(原画像41中のB画素)の階調値Sbi+2,j、Sbi-2,j、Sbi,j+2、Sbi,j-2と、対応する画素(G画像42g中の画素)のG値(輝度値)G'i,jと、その上下及び左右に1画素の間隔をおいて存在する4つの画素(G画像42g中の画素)のG値(輝度値)G'i+2,j、G'i-2,j、G'i,j+2、G'i,j-2とを基に、次式(39),(40)のIb、Jbの大小関係に応じて、式(41)又は(42)又は(43)によりB値(B'i,j)が決定される。   Specifically, among the pixels of the B image 42b, with respect to the pixel at the arrangement position corresponding to the R pixel of the original image 41, four B pixels (one pixel interval above and below and right and left of the pixel) ( The gradation value Sbi + 2, j, Sbi-2, j, Sbi, j + 2, Sbi, j-2 of the original image 41) and the corresponding pixel (pixel in the G image 42g) G Value (luminance value) G′i, j, and G values (luminance values) G′i + 2, of four pixels (pixels in the G image 42g) existing at intervals of one pixel above and below and on the left and right. Based on j, G'i-2, j, G'i, j + 2, and G'i, j-2, depending on the magnitude relationship between Ib and Jb in the following equations (39) and (40), The B value (B′i, j) is determined by the equation (41) or (42) or (43).


Ib=|Sbi+2,j−Sbi-2,j|+|2G'i,j−G'i+2,j−G'i-2,j| ……(39)
Jb=|Sbi,j+2−Sbi,j-2|+|2G'i,j−G'i,j+2−G'i,j-2| ……(40)
Ib<Jbである場合
B'i,j=(Sbi+2,j+Sbi-2,j)/2
+(2G'i,j−G'i+2,j−G'i-2,j)/2 ……(41)
Ib>Jbである場合
B'i,j=(Sbi,j+2+Sbi,j-2)/2
+(2G'i,j−G'i,j+2−G'i,j-2)/2 ……(42)
Ib=Jbである場合
B'i,j=(Sbi,j+2+Sbi,j-2+Sbi+2,j+Sbi-2,j)/4
+(4G'i,j−G'i+2,j−G'i-2,j−G'i,j+2−G'i,j-2)/4
……(43)

また、B画像42bの画素のうち、原画像41のG画素に対応する配置位置の画素については、その画素の上下左右のいずれかに隣接する1つのB画素(原画像41中のB画素)の階調値Sbi+1,j又はSbi-1,j又はSbi,j+1又はSbi,j-1と、対応する画素(G画像42g中の画素)のG値(輝度値)G'i,jと、その上下左右のいずれかに隣接する1つの画素(G画像42g中の画素)のG値(輝度値)G'i+1,j、G'i-1,j、G'i,j+1、G'i,j-1とを基に、次式(44)又は(45)又は(46)又は(47)によりB値(B'i,j)が決定される。

Ib = | Sbi + 2, j−Sbi−2, j | + | 2G′i, j−G′i + 2, j−G′i−2, j | (39)
Jb = | Sbi, j + 2-Sbi, j-2 | + | 2G'i, j-G'i, j + 2-G'i, j-2 | (40)
When Ib <Jb B'i, j = (Sbi + 2, j + Sbi-2, j) / 2
+ (2G′i, j−G′i + 2, j−G′i−2, j) / 2 (41)
When Ib> Jb B′i, j = (Sbi, j + 2 + Sbi, j−2) / 2
+ (2G'i, j-G'i, j + 2-G'i, j-2) / 2 (42)
When Ib = Jb B'i, j = (Sbi, j + 2 + Sbi, j-2 + Sbi + 2, j + Sbi-2, j) / 4
+ (4G'i, j-G'i + 2, j-G'i-2, j-G'i, j + 2-G'i, j-2) / 4
...... (43)

In addition, among the pixels of the B image 42 b, for the pixel at the arrangement position corresponding to the G pixel of the original image 41, one B pixel adjacent to either the upper, lower, left, or right of the pixel (B pixel in the original image 41) Gradation value Sbi + 1, j or Sbi-1, j or Sbi, j + 1 or Sbi, j-1 and the G value (luminance value) G′i of the corresponding pixel (the pixel in the G image 42g). , j and the G value (luminance value) G′i + 1, j, G′i−1, j, G′i of one pixel (pixel in the G image 42g) adjacent to any one of the top, bottom, left, and right , j + 1, G′i, j−1, the B value (B′i, j) is determined by the following equation (44) or (45) or (46) or (47).


下側にB画素が隣接する場合
B'i,j=Sbi+1,j+(G'i,j−G'i+1,j) ……(44)
上側にB画素が隣接する場合
B'i,j=Sbi-1,j+(G'i,j−G'i-1,j) ……(45)
右側にB画素が隣接する場合
B'i,j=Sbi,j+1+(G'i,j−G'i,j+1) ……(46)
左側にB画素が隣接する場合
B'i,j=Sbi,j-1+(G'i,j−G'i,j-1) ……(47)

また、B画像42bの画素のうち、原画像41のRx画素に対応する配置位置の画素については、その画素の右斜め上及び左斜め下、あるいは、左斜め上及び右斜め下に隣接する2つのB画素(原画像41中のB画素)の階調値(Sbi-1,j+1,Sbi+1,j-1)又は(Sbi-1,j−1,Sbi+1,j+1)と、対応する画素(G画像42g中の画素)のG値(輝度値)G'i,jと、その右斜め上及び左斜め下、あるいは、左斜め上及び右斜め下に隣接する2つの画素(G画像42g中の画素)のG値(輝度値)(G'i-1,j+1,G'i+1,j-1)又は(G'i-1,j−1,G'i+1,j+1)とを基に、次式(48)又は(49)によりB値(B'i,j_b)が決定される。

When B pixel is adjacent to the lower side B′i, j = Sbi + 1, j + (G′i, j−G′i + 1, j) (44)
When B pixel is adjacent on the upper side B′i, j = Sbi−1, j + (G′i, j−G′i−1, j) (45)
When B pixel is adjacent to the right side B′i, j = Sbi, j + 1 + (G′i, j−G′i, j + 1) (46)
When B pixel is adjacent to the left side B′i, j = Sbi, j−1 + (G′i, j−G′i, j−1) (47)

Among the pixels of the B image 42b, the pixels at the arrangement positions corresponding to the Rx pixels of the original image 41 are adjacent to the pixel on the upper right side and the lower left side, or on the upper left side and the lower right side. The gradation values (Sbi-1, j + 1, Sbi + 1, j-1) or (Sbi-1, j-1, Sbi + 1, j + 1) of two B pixels (B pixels in the original image 41) ) And the G value (luminance value) G′i, j of the corresponding pixel (the pixel in the G image 42 g), 2 adjacent to the upper right side and the lower left side, or the upper left side and the lower right side. G values (luminance values) (G′i−1, j + 1, G′i + 1, j−1) or (G′i−1, j−1,) of two pixels (pixels in the G image 42g) Based on G′i + 1, j + 1), the B value (B′i, j_b) is determined by the following equation (48) or (49).


右斜め上及び左斜め下にB画素が隣接する場合
B'i,j=(Sbi+1,j-1+Sbi-1,j+1)/2
+(2G'i,j−G'i+1,j-1−G'i-1,j+1)/2 ……(48)
左斜め上及び右斜め下にB画素が隣接する場合
B'i,j=(Sbi+1,j+1+Sbi-1,j-1)/2
+(2G'i,j−G'i+1,j+1−G'i-1,j-1)/2 ……(49)

選択中の処理対象領域において、G画像42gを基準輝度分布画像として生成した場合、以上のようにして、B画像42bの各画素うち、原画像41のB画素に対応する配置位置の画素以外の各画素のB値(B'i,j)は、当該画素の周囲のB画素の階調値(原画像41における階調値)に応じて決定される基本値(式(41)〜(49)のそれぞれの右辺の第1項)を、当該画素及びその周囲の画素のG値(G画像42gにおけるG値)に応じて決定される補正値(式(41)〜(49)のそれぞれの右辺の第2項)により補正することによって、決定される。

When B pixels are adjacent to the upper right and lower left, B'i, j = (Sbi + 1, j-1 + Sbi-1, j + 1) / 2
+ (2G′i, j−G′i + 1, j−1−G′i−1, j + 1) / 2 (48)
When B pixel is adjacent to upper left and lower right B'i, j = (Sbi + 1, j + 1 + Sbi-1, j-1) / 2
+ (2G′i, j−G′i + 1, j + 1−G′i−1, j−1) / 2 (49)

When the G image 42g is generated as the reference luminance distribution image in the processing target region being selected, the pixels other than the pixel at the arrangement position corresponding to the B pixel of the original image 41 among the pixels of the B image 42b are processed as described above. The B value (B′i, j) of each pixel is a basic value (expressions (41) to (49) determined according to the gradation value of the B pixel around the pixel (the gradation value in the original image 41)). ) Of the right side of each of the correction values (expressions (41) to (49)) determined in accordance with the G value (G value in the G image 42g) of the pixel and the surrounding pixels. It is determined by correcting by the second term on the right side).

そして、B画像42bの各画素のうち、原画像41のB画素に対応する配置位置の各画素のB値(B'i,j)は、当該画素に対応する原画像41のB画素の階調値Sbi,jに一致するように決定される。   Then, among the pixels of the B image 42b, the B value (B′i, j) of each pixel at the arrangement position corresponding to the B pixel of the original image 41 is the level of the B pixel of the original image 41 corresponding to the pixel. It is determined so as to coincide with the key value Sbi, j.

これにより選択中の処理対象領域におけるB画像42bが、基準輝度分布画像としてのG画像42gの輝度分布を反映させて生成される。   Thereby, the B image 42b in the processing target region being selected is generated by reflecting the luminance distribution of the G image 42g as the reference luminance distribution image.

次に、選択中の処理対象領域におけるRx画像42rxを、基準輝度分布画像として生成したG画像42gの輝度分布を反映させて生成する処理では、該Rx画像42rx(図8に示した画像)の各画素のRx値(Rx'i,j)は、次のように決定される。   Next, in the process of generating the Rx image 42rx in the selected processing target area by reflecting the luminance distribution of the G image 42g generated as the reference luminance distribution image, the Rx image 42rx (the image shown in FIG. 8) The Rx value (Rx′i, j) of each pixel is determined as follows.

すなわち、Rx画像42rxの各画素のうち、原画像41のRx画素に対応する配置位置の画素(配置位置が同じ画素)については、式(50)で示す如く、対応する原画像41のRx画素の階調値Srxi,jが、Rx画像42rxの当該画素のRx値(Rx'i,j)として決定される。   That is, among the pixels of the Rx image 42rx, the pixel at the arrangement position corresponding to the Rx pixel of the original image 41 (the pixel having the same arrangement position) is represented by the Rx pixel of the corresponding original image 41 as shown in Expression (50). Gradation value Srxi, j is determined as the Rx value (Rx′i, j) of the pixel of the Rx image 42rx.


Rx'i,j=Swi,j ……(50)

また、Rx画像42rxの各画素のうち、原画像41のRx画素以外の画素(R画素又はG画素又はB画素)に対応する配置位置の画素のRx値(Rx'i,j)は、当該画素の周囲のRx画素の階調値(原画像41での階調値)と、当該画素及びその周囲の画素のG値(G画像42gでの階調値(G値))とを用いて決定される。

Rx'i, j = Swi, j (50)

Also, among the pixels of the Rx image 42rx, the Rx value (Rx′i, j) of the pixel at the arrangement position corresponding to the pixel (R pixel, G pixel, or B pixel) other than the Rx pixel of the original image 41 is Using the gradation value of the Rx pixel around the pixel (gradation value in the original image 41) and the G value of the pixel and the surrounding pixels (gradation value (G value) in the G image 42g). It is determined.

具体的には、Rx画像42rxの画素のうち、原画像41のR画素又はB画素に対応する配置位置の画素については、その画素の右斜め上、右斜め下、左斜め上、左斜め下に隣接する4つのRx画素(原画像中のRx画素)の階調値Srxi-1,j+1、Srxi+1,j+1、Srxi-1,j-1、Srxi+1,j-1と、対応する画素(G画像中の画素)のG値G'i,jと、その右斜め上、右斜め下、左斜め上、左斜め下に隣接する4つの画素(G画像42g中の画素)のG値G'i-1,j+1、G'i+1,j+1、G'i-1,j-1、G'i+1,j-1とを基に、次式(51),(52)のIrx、Jrxの大小関係に応じて、式(53)又は(54)又は(55)によりRx値(Rx'i,j)が決定される。   Specifically, among the pixels of the Rx image 42rx, the pixels at the arrangement positions corresponding to the R pixel or the B pixel of the original image 41 are diagonally upper right, lower right, upper left, and lower left of the pixel. Gradation values Srxi-1, j + 1, Srxi + 1, j + 1, Srxi-1, j-1, Srxi + 1, j-1 of four Rx pixels adjacent to (Rx pixel in the original image) And the G value G′i, j of the corresponding pixel (pixel in the G image) and four pixels (in the G image 42g) that are adjacent to the upper right side, the lower right side, the upper left side, and the lower left side. Pixel) G values G′i−1, j + 1, G′i + 1, j + 1, G′i−1, j−1, G′i + 1, j−1 The Rx value (Rx′i, j) is determined by the equation (53) or (54) or (55) according to the magnitude relationship between Irx and Jrx in the equations (51) and (52).


Irx=|Srxi+1,j+1−Srxi-1,j-1|
+|2G'i,j−G'i+1,j+1−G'i-1,j-1| ……(51)
Jrx=|Srxi+1,j-1−Srxi-1,j+1|
+|2G'i,j−G'i+1,j-1−G'i-1,j+1| ……(52)
Irx<Jrxである場合
Rx'i,j=(Srxi+1,j+1+Srxi-1,j-1)/2
+(2G'i,j−G'i+1,j+1−G'i-1,j-1)/2 ……(53)
Irx>Jrxである場合
Rx'i,j=(Srxi+1,j-1+Srxi-1,j+1)/2
+(2G'i,j−G'i+1,j-1−G'i-1,j+1)/2 ……(54)
Irx=Jrxである場合
Rx'i,j=(Srxi+1,j+1+Srxi+1,j-1+Srxi-1,j+1+Srxi-1,j-1)/4
+(4G'i,j−G'i+1,j+1−G'i+1,j-1−G'i-1,j+1−G'i-1,j-1)/4
……(55)

また、Rx画像42rxの画素のうち、原画像41のG画素に対応する配置位置の画素については、その画素に上下又は左右に隣接する2つのRx画素(原画像41中の画素)の階調値(Srxi-1,j、Srxi+1,j)又は(Srxi,j-1、Srxi,j+1)と、対応する画素(G画像42g中の画素)のG値(輝度値)G'i,jと、その上下又は左右に隣接する2つの画素(G画像42g中の画素)のG値(輝度値)(G'i-1,j、G'i+1,j)又は(G'i,j-1、G'i,j+1)とを基に、次式(56)又は(57)によりRx値(Rx'i,j)が決定される。

Irx = | Srxi + 1, j + 1-Srxi-1, j-1 |
+ | 2G′i, j−G′i + 1, j + 1−G′i−1, j−1 | (51)
Jrx = | Srxi + 1, j-1-Srxi-1, j + 1 |
+ | 2G′i, j−G′i + 1, j−1−G′i−1, j + 1 | (52)
When Irx <Jrx, Rx'i, j = (Srxi + 1, j + 1 + Srxi-1, j-1) / 2
+ (2G'i, j-G'i + 1, j + 1-G'i-1, j-1) / 2 (53)
When Irx> Jrx Rx'i, j = (Srxi + 1, j-1 + Srxi-1, j + 1) / 2
+ (2G′i, j−G′i + 1, j−1−G′i−1, j + 1) / 2 (54)
When Irx = Jrx Rx'i, j = (Srxi + 1, j + 1 + Srxi + 1, j-1 + Srxi-1, j + 1 + Srxi-1, j-1) / 4
+ (4G′i, j−G′i + 1, j + 1−G′i + 1, j−1−G′i−1, j + 1−G′i−1, j−1) / 4
...... (55)

Further, among the pixels of the Rx image 42rx, for the pixel at the arrangement position corresponding to the G pixel of the original image 41, the gradation of two Rx pixels (pixels in the original image 41) adjacent to the pixel vertically and horizontally The value (Srxi-1, j, Srxi + 1, j) or (Srxi, j-1, Srxi, j + 1) and the G value (luminance value) G ′ of the corresponding pixel (the pixel in the G image 42g) i, j and G values (luminance values) (G′i−1, j, G′i + 1, j) or (G Based on 'i, j-1, G'i, j + 1), the Rx value (Rx'i, j) is determined by the following equation (56) or (57).


上下にRx画素が隣接する場合
Rx'i,j=(Srxi+1,j+Srxi-1,j)/2
+(2G'i,j−G'i+1,j−G'i-1,j)/2 ……(56)
左右にRx画素が隣接する場合
Rx'i,j=(Srxi,j+1+Srxi,j-1)/2
+(2G'i,j−G'i,j+1−G'i,j-1)/2 ……(57)

選択中の処理対象領域において、G画像42gを基準輝度分布画像として生成した場合、以上のようにして、Rx画像42rxの各画素うち、原画像41のRx画素に対応する配置位置の画素以外の各画素のRx値(Rx'i,j)は、当該画素の周囲のRx画素の階調値(原画像41における階調値)に応じて決定される基本値(式(53)〜(57)のそれぞれの右辺の第1項)を、当該画素及びその周囲の画素のG値(G画像42gにおけるG値)に応じて決定される補正値(式(53)〜(57)のそれぞの右辺の第2項)により補正することによって、決定される。

When Rx pixels are adjacent on the top and bottom Rx'i, j = (Srxi + 1, j + Srxi-1, j) / 2
+ (2G'i, j-G'i + 1, j-G'i-1, j) / 2 (56)
When Rx pixels are adjacent to the left and right Rx'i, j = (Srxi, j + 1 + Srxi, j-1) / 2
+ (2G'i, j-G'i, j + 1-G'i, j-1) / 2 (57)

When the G image 42g is generated as the reference luminance distribution image in the processing target region being selected, the pixels other than the pixels at the arrangement positions corresponding to the Rx pixels of the original image 41 among the pixels of the Rx image 42rx are as described above. The Rx value (Rx′i, j) of each pixel is a basic value (expressions (53) to (57) determined in accordance with the gradation value of the Rx pixel around the pixel (the gradation value in the original image 41). ) Is the correction value (Equations (53) to (57)) determined in accordance with the G value (G value in the G image 42g) of the pixel and its surrounding pixels. This is determined by correcting according to the second term on the right-hand side.

そして、Rx画像42rxの各画素のうち、原画像41のRx画素に対応する配置位置の各画素のRx値(Rx'i,j)は、当該画素に対応する原画像41のRx画素の階調値Srxi,jに一致するように決定される。   Then, among the pixels of the Rx image 42rx, the Rx value (Rx′i, j) of each pixel at the arrangement position corresponding to the Rx pixel of the original image 41 is the level of the Rx pixel of the original image 41 corresponding to the pixel. It is determined so as to match the key value Srxi, j.

これにより選択中の処理対象領域におけるRx画像42rxが、基準輝度分布画像としてのG画像42gの輝度分布を反映させて生成される。   Thereby, the Rx image 42rx in the processing target region being selected is generated by reflecting the luminance distribution of the G image 42g as the reference luminance distribution image.

以上が、選択中の処理対象領域において、基準輝度分布画像として生成したG画像42gの輝度分布を反映させて、残りの3つの色別画像(R画像42r、B画像42b、及びRx画像42rx)を生成する処理である。   The above is the remaining three color-specific images (R image 42r, B image 42b, and Rx image 42rx) reflecting the luminance distribution of the G image 42g generated as the reference luminance distribution image in the processing target region being selected. Is a process for generating

次に、STEP3−2において、Rx画像を基準輝度分布画像として生成した場合に、R画像42r、B画像42b、及びG画像42gを生成する処理について説明する。   Next, in STEP 3-2, processing for generating the R image 42r, the B image 42b, and the G image 42g when the Rx image is generated as the reference luminance distribution image will be described.

まず、R画像42rに関し、選択中の処理対象領域におけるR画像42rを、基準輝度分布画像として生成したRx画像42rxの輝度分布を反映させて生成する処理では、該R画像42rの各画素のR値(R'i,j)は、次のよう決定される。   First, regarding the R image 42r, in the process of generating the R image 42r in the processing target region being selected by reflecting the luminance distribution of the Rx image 42rx generated as the reference luminance distribution image, R of each pixel of the R image 42r is generated. The value (R′i, j) is determined as follows.

すなわち、R画像42rの各画素のうち、原画像41のR画素に対応する配置位置の画素(配置位置が同じ画素)については、式(58)で示す如く、対応する原画像41のR画素の階調値Sri,jが、R画像42rの当該画素のR値(R'i,j)として決定される。   That is, among the pixels of the R image 42r, the pixel at the arrangement position corresponding to the R pixel of the original image 41 (pixels having the same arrangement position) is represented by the R pixel of the corresponding original image 41 as shown in Expression (58). Gradation value Sri, j is determined as the R value (R′i, j) of the pixel of the R image 42r.


R'i,j=Sri,j ……(58)

また、R画像42rの各画素のうち、原画像41のR画素以外の画素(G画素又はB画素又はRx画素)に対応する配置位置の画素のR値(R'i,j)は、当該画素の周囲のR画素の階調値(原画像41での階調値)と、当該画素及びその周囲の画素のRx値(Rx画像42rxでの階調値)とを用いて決定される。

R'i, j = Sri, j (58)

In addition, among the pixels of the R image 42r, the R value (R′i, j) of the pixel at the arrangement position corresponding to a pixel other than the R pixel of the original image 41 (G pixel, B pixel, or Rx pixel) is It is determined using the gradation value of the R pixel around the pixel (gradation value in the original image 41) and the Rx value of the pixel and the surrounding pixels (gradation value in the Rx image 42rx).

具体的には、R画像42rの画素のうち、原画像41のB画素に対応する配置位置の画素については、その画素の上下及び左右に1画素の間隔をおいて存在する4つのR画素(原画像41中の画素)の階調値Sri+2,j、Sri-2,j、Sri,j+2、Sri,j-2と、対応する画素(Rx画像42rx中の画素)のRx値(輝度値)Rx'i,jと、その上下及び左右に1画素の間隔をおいて存在する4つの画素(Rx画像42rx中の画素)のRx値(輝度値)Rx'i+2,j、Rx'i-2,j、Rx'i,j+2、Rx'i,j-2とを基に、次式(59),(60)のIr、Jrの大小関係に応じて、式(61)又は(62)又は(63)によりR値(R'i,j)が決定される。   Specifically, among the pixels of the R image 42r, with respect to the pixel at the arrangement position corresponding to the B pixel of the original image 41, four R pixels (one pixel interval above and below and right and left of the pixel) ( Rx value of the pixel (pixel in the Rx image 42rx) corresponding to the gradation value Sri + 2, j, Sri-2, j, Sri, j + 2, Sri, j-2 of the original image 41) (Luminance value) Rx'i, j, and Rx values (luminance values) Rx'i + 2, j of four pixels (pixels in the Rx image 42rx) existing at intervals of one pixel vertically and horizontally , Rx'i-2, j, Rx'i, j + 2, Rx'i, j-2 based on the relationship between Ir and Jr in the following equations (59) and (60) The R value (R′i, j) is determined by (61), (62), or (63).


Ir=|Sri+2,j−Sri-2,j|+|2Rx'i,j−Rx'i+2,j−Rx'i-2,j| ……(59)
Jr=|Sri,j+2−Sri,j-2|+|2Rx'i,j−Rx'i,j+2−Rx'i,j-2| ……(60)
Ir<Jrである場合
R'i,j=(Sri+2,j+Sri-2,j)/2
+(2Rx'i,j−Rx'i+2,j−Rx'i-2,j)/2 ……(61)
Ir>Jrである場合
R'i,j=(Sri,j+2+Sri,j-2)/2
+(2Rx'i,j−Rx'i,j+2−Rx'i,j-2)/2 ……(62)
Ir=Jrである場合
R'i,j=(Sri,j+2+Sri,j-2+Sri+2,j+Sri-2,j)/4
+(4Rx'i,j−Rx'i+2,j−Rx'i-2,j−Rx'i,j+2−Rx'i,j-2)/4
……(63)

また、R画像42rの画素のうち、原画像41のG画素に対応する配置位置の画素については、その画素の上下左右のいずれかに隣接する1つのR画素(原画像41のR画素)の階調値Sri+1,j又はSri-1,j又はSri,j+1又はSri,j-1と、対応する画素(Rx画像42rx中の画素)のRx値(輝度値)Rx'i,jと、その上下左右のいずれかに隣接する1つの画素(Rx画像42rx中の画素)のRx値(輝度値)Rx'i+1,j、Rx'i-1,j、Rx'i,j+1、Rx'i,j-1とを基に、次式(64)又は(65)又は(66)又は(67)によりR値(R'i,j)が決定される。

Ir = | Sri + 2, j-Sri-2, j | + | 2Rx'i, j-Rx'i + 2, j-Rx'i-2, j | (59)
Jr = | Sri, j + 2-Sri, j-2 | + | 2Rx'i, j-Rx'i, j + 2-Rx'i, j-2 | (60)
When Ir <Jr R'i, j = (Sri + 2, j + Sri-2, j) / 2
+ (2Rx'i, j-Rx'i + 2, j-Rx'i-2, j) / 2 (61)
When Ir> Jr R'i, j = (Sri, j + 2 + Sri, j-2) / 2
+ (2Rx'i, j-Rx'i, j + 2-Rx'i, j-2) / 2 (62)
When Ir = Jr R'i, j = (Sri, j + 2 + Sri, j-2 + Sri + 2, j + Sri-2, j) / 4
+ (4Rx'i, j-Rx'i + 2, j-Rx'i-2, j-Rx'i, j + 2-Rx'i, j-2) / 4
...... (63)

Further, among the pixels of the R image 42r, for the pixel at the arrangement position corresponding to the G pixel of the original image 41, one R pixel (R pixel of the original image 41) adjacent to either the upper, lower, left, or right of the pixel. The gradation value Sri + 1, j or Sri-1, j or Sri, j + 1 or Sri, j-1 and the corresponding pixel (pixel in the Rx image 42rx) Rx value (luminance value) Rx'i, j and the Rx value (luminance value) Rx′i + 1, j, Rx′i−1, j, Rx′i, of one pixel (a pixel in the Rx image 42rx) adjacent to either the top, bottom, left, or right thereof Based on j + 1 and Rx′i, j−1, the R value (R′i, j) is determined by the following equation (64) or (65) or (66) or (67).


下側にR画素が隣接する場合
R'i,j=Sri+1,j+(Rx'i,j−Rx'i+1,j) ……(64)
上側にR画素が隣接する場合
R'i,j=Sri-1,j+(Rx'i,j−Rx'i-1,j) ……(65)
右側にR画素が隣接する場合
R'i,j=Sri,j+1+(Rx'i,j−Rx'i,j+1) ……(66)
左側にR画素が隣接する場合
R'i,j=Sri,j-1+(Rx'i,j−Rx'i,j-1) ……(67)

また、R画像42rの画素のうち、原画像41のRx画素に対応する配置位置の画素については、その画素の右斜め上及び左斜め下、あるいは、左斜め上及び右斜め下に隣接する2つのR画素(原画像41中のR画素)の階調値(Sri-1,j+1,Sri+1,j-1)又は(Sri-1,j−1,Sri+1,j+1)と、対応する画素(Rx画像42rx中の画素)のRx値(輝度値)Rx'i,jと、その右斜め上及び左斜め下、あるいは、左斜め上及び右斜め下に隣接する2つの画素(Rx画像42rx中の画素)のRx値(輝度値)(Rx'i-1,j+1,Rx'i+1,j-1)又は(Rx'i-1,j−1,Rx'i+1,j+1)とを基に、次式(68)又は(69)によりR値(R'i,j)が決定される。

When R pixel is adjacent to the lower side R′i, j = Sri + 1, j + (Rx′i, j−Rx′i + 1, j) (64)
When R pixel is adjacent on the upper side R′i, j = Sri−1, j + (Rx′i, j−Rx′i−1, j) (65)
When R pixel is adjacent on the right side R′i, j = Sri, j + 1 + (Rx′i, j−Rx′i, j + 1) (66)
When R pixel is adjacent to the left side R'i, j = Sri, j-1 + (Rx'i, j-Rx'i, j-1) (67)

Among the pixels of the R image 42r, the pixels at the arrangement positions corresponding to the Rx pixels of the original image 41 are adjacent to the upper right corner and the lower left corner, or the upper left corner and the lower right corner of the pixel. The gradation values (Sri-1, j + 1, Sri + 1, j-1) or (Sri-1, j-1, Sri + 1, j + 1) of two R pixels (R pixels in the original image 41) ) And the Rx value (luminance value) Rx′i, j of the corresponding pixel (the pixel in the Rx image 42rx), 2 adjacent to the upper right and lower left, or the upper left and lower right. Rx values (luminance values) (Rx′i−1, j + 1, Rx′i + 1, j−1) or (Rx′i−1, j−1,) of two pixels (pixels in the Rx image 42rx) Based on Rx′i + 1, j + 1), the R value (R′i, j) is determined by the following equation (68) or (69).


右斜め上及び左斜め下にR画素が隣接する場合
R'i,j=(Sri+1,j-1+Sri-1,j+1)/2
+(2Rx'i,j−Rx'i+1,j-1−Rx'i-1,j+1)/2 ……(68)
左斜め上及び右斜め下にR画素が隣接する場合
R'i,j=(Sri+1,j+1+Sri-1,j-1)/2
+(2Rx'i,j−Rx'i+1,j+1−Rx'i-1,j-1)/2 ……(69)

選択中の処理対象領域において、Rx画像42rxを基準輝度分布画像として生成した場合、以上のようにして、R画像42rの各画素のうち、原画像41のR画素に対応する配置位置の画素以外の各画素のR値(R'i,j)は、当該画素の周囲のR画素の階調値(原画像41における階調値)に応じて決定される基本値(式(61)〜(69)のそれぞれの右辺の第1項)を、当該画素及びその周囲の画素のRx値(Rx画像42rxにおけるRx値)に応じて決定される補正値(式(61)〜(69)のそれぞれの右辺の第2項)により補正することによって、決定される。

R'i, j = (Sri + 1, j-1 + Sri-1, j + 1) / 2 when R pixels are adjacent to the upper right and lower left
+ (2Rx'i, j-Rx'i + 1, j-1-Rx'i-1, j + 1) / 2 (68)
R'i, j = (Sri + 1, j + 1 + Sri-1, j-1) / 2 when R pixel is adjacent to upper left and lower right
+ (2Rx'i, j-Rx'i + 1, j + 1-Rx'i-1, j-1) / 2 (69)

When the Rx image 42rx is generated as the reference luminance distribution image in the processing target region being selected, the pixels other than the pixel at the arrangement position corresponding to the R pixel of the original image 41 among the pixels of the R image 42r as described above. The R value (R′i, j) of each pixel is determined based on the gradation values (gradation values in the original image 41) of the R pixels around the pixel (expressions (61) to (61)). 69) is a correction value (expressions (61) to (69)) determined in accordance with the Rx values (Rx values in the Rx image 42rx) of the pixel and its surrounding pixels. This is determined by correcting according to the second term on the right-hand side.

そして、R画像42rの各画素のうち、原画像41のR画素に対応する配置位置の各画素のR値(R'i,j)は、当該画素に対応する原画像41のR画素の階調値Sri,jに一致するように決定される。   The R value (R′i, j) of each pixel at the arrangement position corresponding to the R pixel of the original image 41 among the pixels of the R image 42r is the level of the R pixel of the original image 41 corresponding to the pixel. It is determined so as to coincide with the key value Sri, j.

これにより選択中の処理対象領域におけるR画像42rが、基準輝度分布画像としてのRx画像42rxの輝度分布を反映させて生成される。   Thereby, the R image 42r in the processing target region being selected is generated by reflecting the luminance distribution of the Rx image 42rx as the reference luminance distribution image.

次に、B画像42bに関し、選択中の処理対象領域におけるB画像42bを、基準輝度分布画像として生成したRx画像42rxの輝度分布を反映させて生成する処理では、該B画像42bの各画素のB値(B'i,j)は、R画像42rの各画素のR値(R'i,j)と同様に仕方で決定される。   Next, regarding the B image 42b, in the process of generating the B image 42b in the processing target region being selected by reflecting the luminance distribution of the Rx image 42rx generated as the reference luminance distribution image, each pixel of the B image 42b is generated. The B value (B′i, j) is determined in the same manner as the R value (R′i, j) of each pixel of the R image 42r.

すなわち、B画像42bの各画素のうち、原画像41のB画素に対応する配置位置の画素(配置位置が同じ画素)については、式(70)で示す如く、対応する原画像41のB画素の階調値Sbi,jが、B画像43bの当該画素のB値(B'i,j)として決定される。   That is, among the pixels of the B image 42b, the pixels at the arrangement position corresponding to the B pixels of the original image 41 (the pixels having the same arrangement position) are represented by the B pixels of the corresponding original image 41 as shown in Expression (70). Gradation value Sbi, j is determined as the B value (B′i, j) of the pixel of the B image 43b.


B'i,j=Sbi,j ……(70)

また、B画像42bの各画素のうち、原画像41のB画素以外の画素(R画素又はG画素又はRx画素)に対応する配置位置の画素のB値(B'i,j_b)は、当該画素の周囲のB画素の階調値(原画像41での階調値)と、当該画素及びその周囲の画素のRx値(Rx画像42rxでの階調値(Rx値))とを用いて決定される。

B'i, j = Sbi, j (70)

In addition, among the pixels of the B image 42b, the B value (B′i, j_b) of the pixel at the arrangement position corresponding to the pixel (R pixel, G pixel, or Rx pixel) other than the B pixel of the original image 41 is Using the gradation value of the B pixel around the pixel (gradation value in the original image 41) and the Rx value of the pixel and the surrounding pixels (gradation value (Rx value) in the Rx image 42rx) It is determined.

具体的には、B画像42bの画素のうち、原画像41のR画素に対応する配置位置の画素については、その画素の上下及び左右に1画素の間隔をおいて存在する4つのB画素(原画像41中の画素)の階調値Sbi+2,j、Sbi-2,j、Sbi,j+2、Sbi,j-2と、対応する画素(Rx画像42rx中の画素)のRx値(輝度値)Rx'i,jと、その上下及び左右に1画素の間隔をおいて存在する4つの画素(Rx画像42rx中の画素)のRx値(輝度値)Rx'i+2,j、Rx'i-2,j、Rx'i,j+2、Rx'i,j-2とを基に、次式(71),(72)のIb、Jbの大小関係に応じて、式(73)又は(74)又は(75)によりB値(B'i,j)が決定される。   Specifically, among the pixels of the B image 42b, with respect to the pixel at the arrangement position corresponding to the R pixel of the original image 41, four B pixels (one pixel interval above and below and right and left of the pixel) ( Rx value of the corresponding pixel (the pixel in the Rx image 42rx) and the gradation value Sbi + 2, j, Sbi-2, j, Sbi, j + 2, Sbi, j-2 of the pixel in the original image 41) (Luminance value) Rx'i, j, and Rx values (luminance values) Rx'i + 2, j of four pixels (pixels in the Rx image 42rx) existing at intervals of one pixel vertically and horizontally , Rx'i-2, j, Rx'i, j + 2, Rx'i, j-2 based on the magnitude relationship between Ib and Jb in the following formulas (71) and (72) The B value (B′i, j) is determined by (73), (74), or (75).


Ib=|Sbi+2,j−Sbi-2,j|+|2Rx'i,j−Rx'i+2,j−Rx'i-2,j| ……(71)
Jb=|Sbi,j+2−Sbi,j-2|+|2Rx'i,j−Rx'i,j+2−Rx'i,j-2| ……(72)
Ib<Jbである場合
B'i,j=(Sbi+2,j+Sbi-2,j)/2
+(2Rx'i,j−Rx'i+2,j−Rx'i-2,j)/2 ……(73)
Ib>Jbである場合
B'i,j=(Sbi,j+2+Sbi,j-2)/2
+(2Rx'i,j−Rx'i,j+2−Rx'i,j-2)/2 ……(74)
Ib=Jbである場合
B'i,j=(Sbi,j+2+Sbi,j-2+Sbi+2,j+Sbi-2,j)/4
+(4Rx'i,j−Rx'i+2,j−Rx'i-2,j−Rx'i,j+2−Rx'i,j-2)/4
……(75)

また、B画像42bの画素のうち、原画像41のG画素に対応する配置位置の画素については、その画素の上下左右のいずれかに隣接する1つのB画素(原画像41中のB画素)の階調値Sbi+1,j又はSbi-1,j又はSbi,j+1又はSbi,j-1と、対応する画素(Rx画像42rx中の画素)のRx値(輝度値)Rx'i,jと、その上下左右のいずれかに隣接する1つの画素(Rx画像42rx中の画素)のRx値(輝度値)Rx'i+1,j、Rx'i-1,j、Rx'i,j+1、Rx'i,j-1とを基に、次式(76)又は(77)又は(78)又は(79)によりB値(B'i,j)が決定される。

Ib = | Sbi + 2, j-Sbi-2, j | + | 2Rx'i, j-Rx'i + 2, j-Rx'i-2, j | (71)
Jb = | Sbi, j + 2-Sbi, j-2 | + | 2Rx'i, j-Rx'i, j + 2-Rx'i, j-2 | (72)
When Ib <Jb B'i, j = (Sbi + 2, j + Sbi-2, j) / 2
+ (2Rx'i, j-Rx'i + 2, j-Rx'i-2, j) / 2 (73)
When Ib> Jb B′i, j = (Sbi, j + 2 + Sbi, j−2) / 2
+ (2Rx'i, j-Rx'i, j + 2-Rx'i, j-2) / 2 (74)
When Ib = Jb B'i, j = (Sbi, j + 2 + Sbi, j-2 + Sbi + 2, j + Sbi-2, j) / 4
+ (4Rx'i, j-Rx'i + 2, j-Rx'i-2, j-Rx'i, j + 2-Rx'i, j-2) / 4
...... (75)

In addition, among the pixels of the B image 42 b, for the pixel at the arrangement position corresponding to the G pixel of the original image 41, one B pixel adjacent to either the upper, lower, left, or right of the pixel (B pixel in the original image 41) Gradation value Sbi + 1, j or Sbi-1, j or Sbi, j + 1 or Sbi, j-1 and the Rx value (luminance value) Rx'i of the corresponding pixel (the pixel in the Rx image 42rx). , j and one pixel (pixel in the Rx image 42rx) adjacent to either the top, bottom, left, or right thereof, the Rx value (luminance value) Rx'i + 1, j, Rx'i-1, j, Rx'i , j + 1, Rx′i, j−1, the B value (B′i, j) is determined by the following formula (76) or (77) or (78) or (79).


下側にB画素が隣接する場合
B'i,j=Sbi+1,j+(Rx'i,j−Rx'i+1,j) ……(76)
上側にB画素が隣接する場合
B'i,j=Sbi-1,j+(Rx'i,j−Rx'i-1,j) ……(77)
右側にB画素が隣接する場合
B'i,j=Sbi,j+1+(Rx'i,j−Rx'i,j+1) ……(78)
左側にB画素が隣接する場合
B'i,j=Sbi,j-1+(Rx'i,j−Rx'i,j-1) ……(79)

また、B画像42bの画素のうち、原画像41のRx画素に対応する配置位置の画素については、その画素の右斜め上及び左斜め下、あるいは、左斜め上及び右斜め下に隣接する2つのB画素(原画像41中のB画素)の階調値(Sbi-1,j+1,Sbi+1,j-1)又は(Sbi-1,j−1,Sbi+1,j+1)と、対応する画素(Rx画像42rx中の画素)のRx値(輝度値)Rx'i,jと、その右斜め上及び左斜め下、あるいは、左斜め上及び右斜め下に隣接する2つの画素(Rx画像42rx中の画素)のRx値(輝度値)(Rx'i-1,j+1,Rx'i+1,j-1)又は(Rx'i-1,j−1,Rx'i+1,j+1)とを基に、次式(80)又は(81)によりB値(B'i,j)が決定される。

When B pixel is adjacent to the lower side B′i, j = Sbi + 1, j + (Rx′i, j−Rx′i + 1, j) (76)
When B pixel is adjacent on the upper side B′i, j = Sbi−1, j + (Rx′i, j−Rx′i−1, j) (77)
When B pixel is adjacent to the right side B′i, j = Sbi, j + 1 + (Rx′i, j−Rx′i, j + 1) (78)
When B pixel is adjacent to the left side B'i, j = Sbi, j-1 + (Rx'i, j-Rx'i, j-1) (79)

Among the pixels of the B image 42b, the pixels at the arrangement positions corresponding to the Rx pixels of the original image 41 are adjacent to the pixel on the upper right side and the lower left side, or on the upper left side and the lower right side. The gradation values (Sbi-1, j + 1, Sbi + 1, j-1) or (Sbi-1, j-1, Sbi + 1, j + 1) of two B pixels (B pixels in the original image 41) ) And the Rx value (luminance value) Rx′i, j of the corresponding pixel (the pixel in the Rx image 42rx), 2 adjacent to the upper right and lower left, or the upper left and lower right. Rx values (luminance values) (Rx′i−1, j + 1, Rx′i + 1, j−1) or (Rx′i−1, j−1,) of two pixels (pixels in the Rx image 42rx) Based on Rx′i + 1, j + 1), the B value (B′i, j) is determined by the following equation (80) or (81).


右斜め上及び左斜め下にB画素が隣接する場合
B'i,j=(Sbi+1,j-1+Sbi-1,j+1)/2
+(2Rx'i,j−Rx'i+1,j-1−Rx'i-1,j+1)/2 ……(80)
左斜め上及び右斜め下にB画素が隣接する場合
B'i,j=(Sbi+1,j+1+Sbi-1,j-1)/2
+(2Rx'i,j−Rx'i+1,j+1−Rx'i-1,j-1)/2 ……(81)

選択中の処理対象領域において、Rx画像42rxを基準輝度分布画像として生成した場合、以上のようにして、B画像42bの各画素のうち、原画像41のB画素に対応する配置位置の画素以外の各画素のB値(B'i,j)は、当該画素の周囲のB画素の階調値(原画像41における階調値)に応じて決定される基本値(式(73)〜(81)のそれぞれの右辺の第1項)を、当該画素及びその周囲の画素のRx値(Rx画像42rxにおけるRx値)に応じて決定される補正値(式(73)〜(81)のそれぞれの右辺の第2項)により補正することによって、決定される。

When B pixels are adjacent to the upper right and lower left, B'i, j = (Sbi + 1, j-1 + Sbi-1, j + 1) / 2
+ (2Rx'i, j-Rx'i + 1, j-1-Rx'i-1, j + 1) / 2 (80)
When B pixel is adjacent to upper left and lower right B'i, j = (Sbi + 1, j + 1 + Sbi-1, j-1) / 2
+ (2Rx'i, j-Rx'i + 1, j + 1-Rx'i-1, j-1) / 2 (81)

When the Rx image 42rx is generated as the reference luminance distribution image in the processing target region being selected, the pixels other than the pixels at the arrangement positions corresponding to the B pixels of the original image 41 among the respective pixels of the B image 42b as described above. The B value (B′i, j) of each pixel is a basic value (expressions (73) to (73)) determined according to the gradation value of the B pixel around the pixel (the gradation value in the original image 41). 81) is a correction value (expressions (73) to (81)) determined in accordance with the Rx values (Rx values in the Rx image 42rx) of the pixel and its surrounding pixels. This is determined by correcting according to the second term on the right-hand side.

そして、B画像42bの各画素のうち、原画像41のB画素に対応する配置位置の各画素のB値(B'i,j)は、当該画素に対応する原画像41のB画素の階調値Sbi,jに一致するように決定される。   Then, among the pixels of the B image 42b, the B value (B′i, j) of each pixel at the arrangement position corresponding to the B pixel of the original image 41 is the level of the B pixel of the original image 41 corresponding to the pixel. It is determined so as to coincide with the key value Sbi, j.

これにより選択中の処理対象領域におけるB画像42bが、基準輝度分布画像としてのRx画像42rxの輝度分布を反映させて生成される。   Thereby, the B image 42b in the processing target region being selected is generated by reflecting the luminance distribution of the Rx image 42rx as the reference luminance distribution image.

次に、選択中の処理対象領域におけるG画像42gを、基準輝度分布画像として生成したRx画像42rxの輝度分布を反映させて生成する処理では、該G画像42gの各画素のG値(G'i,j)は、次のように決定される。   Next, in the process of generating the G image 42g in the selected processing target region by reflecting the luminance distribution of the Rx image 42rx generated as the reference luminance distribution image, the G value (G ′ i, j) is determined as follows.

すなわち、G画像42gの各画素のうち、原画像41のG画素に対応する配置位置の画素(配置位置が同じ画素)については、式(82)で示す如く、対応する原画像41のG画素の階調値Sgi,jが、G画像42gの当該画素のG値(G'i,j)として決定される。   That is, among the pixels of the G image 42g, the pixel at the arrangement position corresponding to the G pixel of the original image 41 (pixels having the same arrangement position) is represented by the G pixel of the corresponding original image 41 as shown in Expression (82). Gradation value Sgi, j is determined as the G value (G′i, j) of the pixel of the G image 42g.


G'i,j=Sgi,j ……(82)

また、G画像42gの各画素のうち、原画像41のG画素以外の画素(R画素又はB画素又はRx画素)に対応する配置位置の画素のG値(G'i,j)は、当該画素の周囲のG画素の階調値(原画像41での階調値)と、当該画素及びその周囲の画素のRx値(Rx画像42rxでの階調値(Rx値))とを用いて決定される。

G'i, j = Sgi, j (82)

In addition, among the pixels of the G image 42g, the G value (G′i, j) of the pixel at the arrangement position corresponding to a pixel (R pixel, B pixel, or Rx pixel) other than the G pixel of the original image 41 is Using the gradation value of the G pixel around the pixel (gradation value in the original image 41) and the Rx value of the pixel and the surrounding pixels (gradation value (Rx value) in the Rx image 42rx) It is determined.

具体的には、G画像42gの画素のうち、原画像41のG画素以外の各画素に対応する配置位置の画素については、当該画素の上下及び左右に隣接する4つのG画素(原画像41中のG画素)の階調値Sgi+1,j、Sgi-1,j、Sgi,j+1、Sgi,j-1と、対応する画素(Rx画像42rx中の画素)のRx値(輝度値)Rx'i,jと、その上下及び左右に隣接する4つの画素(Rx画像42rx中の画素)のRx値(輝度値)Rx'i+1,j、Rx'i-1,j、Rx'i,j+1、Rx'i,j-1とを基に、次式(83),(84)のIg、Jgの大小関係に応じて、式(85)又は(86)又は(87)によりG値(G'i,j)が決定される。   Specifically, among the pixels of the G image 42g, for the pixels at the arrangement positions corresponding to the pixels other than the G pixel of the original image 41, four G pixels adjacent to the upper and lower sides and the left and right of the pixel (the original image 41). The tone value Sgi + 1, j, Sgi-1, j, Sgi, j + 1, Sgi, j-1 of the G pixel in the middle) and the Rx value (luminance) of the corresponding pixel (the pixel in the Rx image 42rx) Value) Rx′i, j, and Rx values (luminance values) Rx′i + 1, j, Rx′i−1, j of four pixels (pixels in the Rx image 42rx) adjacent to the top, bottom, left and right thereof, Based on Rx′i, j + 1 and Rx′i, j−1, depending on the magnitude relationship between Ig and Jg in the following formulas (83) and (84), formula (85) or (86) or ( 87), the G value (G'i, j) is determined.


Ig=|Sgi+1,j−Sgi-1,j|+|2Rx'i,j−Rx'i+1,j−Rx'i-1,j| ……(83)
Jg=|Sgi,j+1−Sgi,j-1|+|2Rx'i,j−Rx'i,j+1−Rx'i,j-1| ……(84)
Ig<Jgである場合
G'i,j=(Sgi+1,j+Sgi-1,j)/2
+(2Rx'i,j−Rx'i+1,j−Rx'i-1,j)/2 ……(85)
Ig>Jgである場合
G'i,j=(Sgi,j+1+Sgi,j-1)/2
+(2Rx'i,j−Rx'i,j+1−Rx'i,j-1)/2 ……(86)
Ig=Jgである場合
G'i,j=(Sgi,j+1+Sgi,j-1+Sgi+1,j+Sgi-1,j)/4
+(4Rx'i,j−Rx'i+1,j−Rx'i-1,j−Rx'i,j+1−Rx'i,j-1)/4
……(87)

選択中の処理対象領域において、Rx画像42rxを基準輝度分布画像として生成した場合、以上のようにして、G画像42gの各画素のうち、原画像41のG画素に対応する配置位置の画素以外の各画素のG値(G'i,j)は、当該画素の周囲のG画素の階調値(原画像41における階調値)に応じて決定される基本値(式(85)〜(87)のそれぞれの右辺の第1項)を、当該画素及びその周囲の画素のRx値(Rx画像42rxにおけるRx値)に応じて決定される補正値(式(85)〜(87)のそれぞれの右辺の第2項)により補正することによって、決定される。

Ig = | Sgi + 1, j-Sgi-1, j | + | 2Rx'i, j-Rx'i + 1, j-Rx'i-1, j | (83)
Jg = | Sgi, j + 1-Sgi, j-1 | + | 2Rx'i, j-Rx'i, j + 1-Rx'i, j-1 | (84)
When Ig <Jg G'i, j = (Sgi + 1, j + Sgi-1, j) / 2
+ (2Rx'i, j-Rx'i + 1, j-Rx'i-1, j) / 2 (85)
When Ig> Jg G'i, j = (Sgi, j + 1 + Sgi, j-1) / 2
+ (2Rx'i, j-Rx'i, j + 1-Rx'i, j-1) / 2 (86)
When Ig = Jg G'i, j = (Sgi, j + 1 + Sgi, j-1 + Sgi + 1, j + Sgi-1, j) / 4
+ (4Rx'i, j-Rx'i + 1, j-Rx'i-1, j-Rx'i, j + 1-Rx'i, j-1) / 4
...... (87)

When the Rx image 42rx is generated as the reference luminance distribution image in the processing target region being selected, the pixels other than the pixels at the arrangement positions corresponding to the G pixels of the original image 41 among the pixels of the G image 42g as described above. The G value (G′i, j) of each pixel is determined based on the gradation values (gradation values in the original image 41) of G pixels around the pixel (expressions (85) to ( 87), the first term on the right side of each of the correction values (expressions (85) to (87)) determined in accordance with the Rx values of the pixel and the surrounding pixels (Rx values in the Rx image 42rx). This is determined by correcting according to the second term on the right-hand side.

そして、G画像42gの各画素のうち、原画像41のG画素に対応する配置位置の各画素のG値(G'i,j)は、当該画素に対応する原画像41のG画素の階調値Sgi,jに一致するように決定される。   Then, among the pixels of the G image 42g, the G value (G′i, j) of each pixel at the arrangement position corresponding to the G pixel of the original image 41 is the level of the G pixel of the original image 41 corresponding to the pixel. It is determined so as to coincide with the key value Sgi, j.

これにより選択中の処理対象領域におけるG画像42rが、基準輝度分布画像としてのRx画像42rxの輝度分布を反映させて生成される。   Thereby, the G image 42r in the processing target region being selected is generated by reflecting the luminance distribution of the Rx image 42rx as the reference luminance distribution image.

以上が、選択中の処理対象領域において、基準輝度分布画像として生成したRx画像42rxの輝度分布を反映させて、残りの3つの色別画像(R画像42r、B画像42b、及びG画像42g)を生成する処理である。   The above is the remaining three color-specific images (R image 42r, B image 42b, and G image 42g) reflecting the luminance distribution of the Rx image 42rx generated as the reference luminance distribution image in the processing target region being selected. Is a process for generating

図4に説明に戻って、以上説明したSTEP4の処理(色別画像生成部32の処理)によって、各処理対象領域毎の4種類の色別画像(R画像42r、G画像42g、B画像42b及びRx画像42rx)を生成した後、STEP4の処理が監視用画像取得部33により実行される。   Returning to FIG. 4, four types of color-specific images (R image 42 r, G image 42 g, and B image 42 b) for each processing target area are obtained by the processing of STEP 4 described above (processing by the color-specific image generation unit 32). And the Rx image 42rx), the processing of STEP 4 is executed by the monitoring image acquisition unit 33.

この処理では、監視用画像取得部33は、対象物検知部34で検知しようとする監視対象物の種別や、撮影環境等に応じて、対象物検知部34での監視対象物の検知に適した(検知しやすい)監視用画像を取得し、その取得した監視用画像を対象物検知部34に出力する。該監視用画像は、各処理対象領域の4種類の色別画像42(R画像42r、G画像42g、B画像42b及びRx画像42rx)から選択した画像、あるいは、各処理対象領域の複数種類の色別画像42を合成することで生成される画像である。   In this processing, the monitoring image acquisition unit 33 is suitable for detection of the monitoring target by the target detection unit 34 according to the type of the monitoring target to be detected by the target detection unit 34, the shooting environment, and the like. A monitoring image (which is easy to detect) is acquired, and the acquired monitoring image is output to the object detection unit 34. The monitoring image is an image selected from four types of color-specific images 42 (R image 42r, G image 42g, B image 42b, and Rx image 42rx) of each processing target region, or a plurality of types of processing target regions. It is an image generated by combining the color-specific images 42.

本実施形態では、監視用画像取得部33は、例えば、各処理対象領域の色別画像42のうちのRx画像42rx(又は互いに隣接する複数の処理対象領域のそれぞれのRx画像42rxの組合せ画像)と、各処理対象領域のRxの色別画像42のうちのR画像42r、G画像42g及びB画像42bを合成することで生成される第1カラー画像43(又は互いに隣接する複数の処理対象領域のそれぞれの第1カラー画像43の組合せ画像)と、各処理対象領域の全ての色別画像42(R画像42r、G画像42g、B画像42b及びRx画像42rx)を合成することで生成される第2カラー画像44(又は互いに隣接する複数の処理対象領域のそれぞれの第2カラー画像44の組合せ画像)とのうちの1つもしくは複数の画像を取得して出力する。   In the present embodiment, the monitoring image acquisition unit 33, for example, the Rx image 42rx (or the combined image of the Rx images 42rx of a plurality of processing target areas adjacent to each other) among the color-specific images 42 of each processing target area. And the first color image 43 (or a plurality of processing target areas adjacent to each other) generated by combining the R image 42r, the G image 42g, and the B image 42b of the Rx color-specific images 42 of each processing target area. Are combined with each color image 42 (R image 42r, G image 42g, B image 42b, and Rx image 42rx) of each processing target area. One or a plurality of images of the second color image 44 (or a combination image of the second color images 44 of a plurality of processing target areas adjacent to each other) are acquired and output.

各処理対象領域の第1カラー画像43は、図11に示すように、その各画素に、R(赤)の階調値であるR値(C1i,j_r)と、G(緑)の階調値であるG値(C1i,j_g)と、B(青)の階調値であるB値(C1i,j_b)との組(3色の階調値の組)として構成される階調値C1i,jが割り当てられた画像である。   As shown in FIG. 11, the first color image 43 of each processing target region includes an R value (C1i, j_r) that is a gradation value of R (red) and a gradation of G (green). Gradation value C1i configured as a set (a set of gradation values of three colors) of a G value (C1i, j_g) as a value and a B value (C1i, j_b) as a gradation value of B (blue) , j is the assigned image.

この場合、次式(88a)〜(88c)で示す如く、各処理対象領域の第1カラー画像43の各画素の階調値C1i,jのうちのR値(C1i,j_r)、G値(C1i,j_g)、B値(C1i,j_b)として、それぞれ、該処理対象領域のR画像42rの対応画素のR値(R'i,j)、該処理対象領域のG画像42gの対応画素のG値(G'i,j)、該処理対象領域のB画像42bの対応画素のB値(B'i,j)がそのまま設定される。   In this case, as indicated by the following equations (88a) to (88c), the R value (C1i, j_r) and G value (G values) of the gradation values C1i, j of each pixel of the first color image 43 in each processing target region ( C1i, j_g) and B value (C1i, j_b) are respectively the R value (R′i, j) of the corresponding pixel of the R image 42r in the processing target area and the corresponding pixel of the G image 42g of the processing target area. The G value (G′i, j) and the B value (B′i, j) of the corresponding pixel of the B image 42b in the processing target area are set as they are.


C1i,j_r=R'i,j ……(88a)
C1i,j_g=G'i,j ……(88b)
C1i,j_b=B'i,j ……(88c)

また、各処理対象領域の第2カラー画像44は、図12に示すように、その各画素に、R(赤)の階調値であるR値(C2i,j_r)と、G(緑)の階調値であるG値(C2i,j_g)と、B(青)の階調値であるB値(C2i,j_b)との組(3色の階調値の組)として構成される階調値C2i,jが割り当てられた画像である。

C1i, j_r = R'i, j (88a)
C1i, j_g = G'i, j (88b)
C1i, j_b = B'i, j (88c)

In addition, as shown in FIG. 12, the second color image 44 of each processing target region includes R value (C2i, j_r), which is a gradation value of R (red), and G (green). Gradation configured as a set of G values (C2i, j_g) as gradation values and B values (C2i, j_b) as gradation values of B (blue) (a set of gradation values of three colors) This is an image to which the value C2i, j is assigned.

この場合、各処理対象領域の第2カラー画像44の各画素の階調値C2i,jのうちのR値(C2i,j_r)は、該処理対象領域のR画像42rの対応画素のR値(R'i,j)を、該処理対象領域のRx画像42rxの対応画素のRx値(Rx'i,j)に応じて、次式(89a)により補正することで決定される。   In this case, the R value (C2i, j_r) of the gradation values C2i, j of each pixel of the second color image 44 in each processing target area is the R value (C2i, j_r) of the corresponding pixel of the R image 42r in the processing target area ( R′i, j) is determined by correcting by the following equation (89a) according to the Rx value (Rx′i, j) of the corresponding pixel of the Rx image 42rx of the processing target region.

同様に、各処理対象領域の第2カラー画像44の各画素の階調値C2i,jのうちのG値(C2i,j_b)は、該処理対象領域のG画像42gの対応画素のG値(G'i,j)を、該処理対象領域のRx画像42rxの対応画素のRx値(Rx'i,j)に応じて、次式(89b)により補正することで決定される。   Similarly, the G value (C2i, j_b) among the gradation values C2i, j of each pixel of the second color image 44 in each processing target area is the G value (C2i, j_b) of the corresponding pixel of the G image 42g in the processing target area ( G′i, j) is determined by correcting by the following equation (89b) according to the Rx value (Rx′i, j) of the corresponding pixel of the Rx image 42rx of the processing target region.

同様に、各処理対象領域の第2カラー画像44の各画素の階調値C2i,jのうちのB値(C2i,j_b)は、該処理対象領域のB画像42bの対応画素のB値(B'i,j)を、該処理対象領域のRx画像42rxの対応画素のRx値(Rx'i,j)に応じて、次式(89c)により補正することで決定される。この第2カラー画像44は換言すれば、第1カラー画像43を、Rx画像42rxの輝度分布に応じて補正したカラー画像である。   Similarly, the B value (C2i, j_b) of the gradation values C2i, j of each pixel of the second color image 44 in each processing target area is the B value (C value of the corresponding pixel of the B image 42b in the processing target area ( B′i, j) is determined by correcting by the following equation (89c) according to the Rx value (Rx′i, j) of the corresponding pixel of the Rx image 42rx of the processing target region. In other words, the second color image 44 is a color image obtained by correcting the first color image 43 according to the luminance distribution of the Rx image 42rx.


C2i,j_r=(R'i,j+(αr×Rx'i,j+βr))/γr ……(89a)
C2i,j_g=(G'i,j+(αg×Rx'i,j+βg))/γg ……(89b)
C2i,j_r=(B'i,j+(αb×Rx'i,j+βb))/γb ……(89c)

ここで、式(89a)におけるαrは、第2カラー画像44の各画素のR値(C2i,j_r)に対する、Rx画像42rxのRx値(Rx'i,j)の寄与率を調整するためのゲイン係数である。式(89b)のαg、式(89c)のαbも、αrと同様の趣旨のゲイン係数である。

C2i, j_r = (R'i, j + ([alpha] r * Rx'i, j + [beta] r)) / [gamma] r (89a)
C2i, j_g = (G'i, j + (αg × Rx'i, j + βg)) / γg (89b)
C2i, j_r = (B'i, j + ([alpha] b * Rx'i, j + [beta] b)) / [gamma] b (89c)

Here, αr in Expression (89a) is for adjusting the contribution ratio of the Rx value (Rx′i, j) of the Rx image 42rx to the R value (C2i, j_r) of each pixel of the second color image 44. Gain factor. Αg in equation (89b) and αb in equation (89c) are gain coefficients having the same purpose as αr.

処理対象領域のRx画像42rxの階調値Rx'i,jは、撮影対象の輝度(明るさ)が高輝度領域である場合に、有効な値をとるので、高輝度領域の撮影対象に対するコントラストが比較的高くなるような第2カラー画像44を監視用画像として用いることが要求される場合には、ゲイン係数αr,αg,αbの値を大きめに設定することが望ましい。   The gradation value Rx′i, j of the Rx image 42rx in the processing target region takes an effective value when the luminance (brightness) of the photographing target is a high luminance region, and thus the contrast of the high luminance region with respect to the photographing target. When it is required to use the second color image 44 having a relatively high value as the monitoring image, it is desirable to set the gain coefficients αr, αg, and αb to be larger.

また、色分解能が比較的高い第2カラー画像44を監視用画像として用いることが要求される場合には、ゲイン係数αr,αg,αbの値を小さめに設定することが望ましい。   When the second color image 44 having a relatively high color resolution is required to be used as the monitoring image, it is desirable to set the gain coefficients αr, αg, αb to be small.

なお、ゲイン係数αr,αg,αbの値は互いに異なる値に設定されてもよい。   Note that the gain coefficients αr, αg, and αb may be set to different values.

また、式(89a)におけるβrは、Rx画像42rxのRx値(Rx'i,j)が、ある値以上の階調値となる場合(例えば、撮影対象の輝度が、R画像42rの階調値が飽和状態もしくはそれに近い状態となるような高輝度領域の輝度である場合)にだけ、Rx値(Rx'i,j)が第2カラー画像44のR値(C2i,j_r)に反映される(寄与する)ようにするための負のオフセット値である。式(89b)のβg、式(89c)のβbも、βrと同様の趣旨のオフセット値(<0)である。   In addition, βr in the equation (89a) is the case where the Rx value (Rx′i, j) of the Rx image 42rx has a gradation value equal to or higher than a certain value (for example, the luminance of the shooting target is the gradation of the R image 42r). Rx value (Rx'i, j) is reflected in the R value (C2i, j_r) of the second color image 44 only when the brightness is in a high brightness region such that the value is saturated or close to that value. This is a negative offset value for making (contribute). Βg in the equation (89b) and βb in the equation (89c) are also offset values (<0) having the same purpose as βr.

この場合、式(89a)における(αr×Rx'i,j+βr)の値は、αr×Rx'i,j+βr≧0である場合は、そのままの値とされるが、αr×Rx'i,j+βr<0である場合には、αr×Rx'i,j+βrの値は、強制的に“0”に設定される。従って、Rx'i,j≧−βr/αrである場合にだけ、Rx値(Rx'i,j)が第2カラー画像44のR値(C2i,j_r)に反映され、Rx'i,j<−βr/αrである場合には、第2カラー画像44のR値(C2i,j_r)が、Rx値(Rx'i,j)に依存しないようにすることが可能となる。   In this case, the value of (αr × Rx′i, j + βr) in the equation (89a) is the same value when αr × Rx′i, j + βr ≧ 0, but αr × Rx′i, j + βr. When <0, the value of αr × Rx′i, j + βr is forcibly set to “0”. Therefore, only when Rx′i, j ≧ −βr / αr, the Rx value (Rx′i, j) is reflected in the R value (C2i, j_r) of the second color image 44, and Rx′i, j When <−βr / αr, the R value (C2i, j_r) of the second color image 44 can be made independent of the Rx value (Rx′i, j).

このことは、式(89b)のβg、式(89c)のβbについても同様である。なお、オフセット値βr,βg,βbの値は互いに異なる値に設定されてもよい。   The same applies to βg in the formula (89b) and βb in the formula (89c). Note that the offset values βr, βg, and βb may be set to different values.

また、式(89a)におけるγrは、C2i,j_rのデータ長(階調値の可変範囲)を、R'i,j及びRx'i,jのデータ長に合せるための補正係数である。式(89b)のγg、式(89c)のγbも、γrと同様の趣旨の補正係数である。   Further, γr in the equation (89a) is a correction coefficient for adjusting the data length of C2i, j_r (variable range of gradation values) to the data length of R′i, j and Rx′i, j. Γg in Expression (89b) and γb in Expression (89c) are correction coefficients having the same purpose as γr.

式(89a)におけるγrは、αr、βrの値に応じて決定される。例えば、R'i,j及びRx'i,jが、8bitの階調値(0〜255の階調値)で表されるデータである場合において、αr=1、βr=0、あるいは、αr=1、βr=−128とした場合、γrは、γr=3/2に設定される。これにより、C2i,j_rを、8bitの階調値で表すことができることとなる。   Γr in the formula (89a) is determined according to the values of αr and βr. For example, when R′i, j and Rx′i, j are data represented by 8-bit gradation values (gradation values from 0 to 255), αr = 1, βr = 0, or αr = 1 and βr = −128, γr is set to γr = 3/2. As a result, C2i, j_r can be represented by an 8-bit gradation value.

このことは、式(89b)のγg、式(89c)のγbについても同様である。   The same applies to γg in formula (89b) and γb in formula (89c).

第2カラー画像44を式(89a)〜(89c)により生成するために用いる上記ゲイン係数αr,αg,αb、オフセット値βr,βg,βb、及び補正係数γr,γg,γbの値は、撮像素子22のR受光画素、G受光画素、B受光画素及びRx受光画素の受光特性や、監視対象物の検知のために第2カラー画像44に要求される画像特性(色分解能や、高輝度領域の輝度の撮影対象に対するコントラスト等の画像特性)を基に、要求される画像特性の第2カラー画像44を生成し得るように設定される。   The gain coefficients αr, αg, αb, the offset values βr, βg, βb and the correction coefficients γr, γg, γb used for generating the second color image 44 by the equations (89a) to (89c) The light receiving characteristics of the R light receiving pixel, the G light receiving pixel, the B light receiving pixel, and the Rx light receiving pixel of the element 22 and the image characteristics required for the second color image 44 for detecting the monitoring object (color resolution, high luminance region, etc.) Is set so that the second color image 44 having the required image characteristics can be generated on the basis of the image characteristics such as contrast with respect to the imaging object having the brightness of (2).

それらの設定値としては、あらかじめ定められた既定値、あるいは、対象物検知部34からの要求等に応じて可変的に決定した値を用いることができる。   As these set values, predetermined default values or values variably determined according to a request from the object detection unit 34 or the like can be used.

なお、上記の如く生成される第2カラー画像44は、第1カラー画像43よりもダイナミックレンジを擬似的に拡大させることができる。ただし、色解像度や画像全体のコントラストを高める上では、第2カラー画像44よりも第1カラー画像43の方が有利である。   Note that the second color image 44 generated as described above can have the dynamic range pseudo-expanded more than the first color image 43. However, the first color image 43 is more advantageous than the second color image 44 in increasing the color resolution and the overall contrast of the image.

監視用画像取得部33は、対象物検知部34で検知する監視対象物の種別や、撮影環境等に応じて、各処理対象領域のRx画像42rx(又はその組合せ画像)と、各処理対象領域の第1カラー画像43(又はその組合せ画像)と、各処理対象領域の該2カラー画像44(又はその組合せ画像)とのうちの1つもしくは複数の画像を監視用画像として取得して出力する。   The monitoring image acquisition unit 33 includes an Rx image 42rx (or a combination image) of each processing target region and each processing target region according to the type of the monitoring target detected by the target detection unit 34, the shooting environment, and the like. One or a plurality of images of the first color image 43 (or a combination image thereof) and the two color images 44 (or a combination image thereof) of each processing target region are acquired and output as a monitoring image. .

例えば、夜間において、対象物検知部34が車両1の前方の他車両(前走車又対向車)を検知しようとしている場合には、監視用画像取得部33は、路面上の領域に対応する1つもしくは複数の処理対象領域のRx画像42rxを監視用画像として対象物検知部34に出力する。   For example, when the object detection unit 34 tries to detect another vehicle (a preceding vehicle or an oncoming vehicle) in front of the vehicle 1 at night, the monitoring image acquisition unit 33 corresponds to an area on the road surface. The Rx image 42rx of one or a plurality of processing target areas is output to the target object detection unit 34 as a monitoring image.

このRx画像42rxは、受光感度が低いRx受光画素に対応する原画像41のRx画素の階調値をベースにして生成された画像であるので、高輝度な発光物としての他車両のテールライトや、ヘッドライトの画像が、白とび状態になったりすることなく、他の画像と区別可能な画像として得られやすい。このため、Rx画像42rxに基づいて、他車両のテールライトや、ヘッドライトの画像を高い信頼性で検知することができ、ひいては、他車両を適切に検知することができる。   Since the Rx image 42rx is an image generated based on the gradation value of the Rx pixel of the original image 41 corresponding to the Rx light receiving pixel having low light receiving sensitivity, the taillight of another vehicle as a high-luminance luminescent material is obtained. In addition, the headlight image is easily obtained as an image that can be distinguished from other images without being overexposed. For this reason, based on the Rx image 42rx, the taillight of the other vehicle and the image of the headlight can be detected with high reliability, and thus the other vehicle can be appropriately detected.

このRx画像42rxは、高輝度の発光物を有する信号機などを検知する場合にも有効に活用することができる。   The Rx image 42rx can be effectively used when detecting a traffic light having a high-luminance luminescent material.

なお、夜間において他車両や信号機を検知しようとする場合、Rx画像42rxの代わりに、第2カラー画像44を監視用画像として対象物検知部34に出力するようにしてもよい。第2カラー画像44は、ダイナミックレンジが広いので、他車両の高輝度のテールライトや、ヘッドライト、あるいは信号機の発光部の画像も良好な色解像度で得ることができる。また、テールライトや、ヘッドライト、信号機の発光部の周辺の比較的暗い物体の画像も得ることができる。   When trying to detect other vehicles and traffic lights at night, the second color image 44 may be output to the object detection unit 34 as a monitoring image instead of the Rx image 42rx. Since the second color image 44 has a wide dynamic range, an image of a high-luminance taillight of another vehicle, a headlight, or a light emitting part of a traffic light can be obtained with a good color resolution. Also, it is possible to obtain an image of a relatively dark object around the taillight, the headlight, and the light emitting part of the traffic light.

また、対象物検知部34が車両1の前方の歩行者や、路面の車線(レーンマーク)を検知しようとしている場合には、監視用画像取得部33は、歩行者が存在し得る領域や路面の領域に対応する1つもしくは複数の処理対象領域の第1カラー画像43を監視用画像として対象物検知部34に出力する。   In addition, when the object detection unit 34 is trying to detect a pedestrian in front of the vehicle 1 or a lane (lane mark) on the road surface, the monitoring image acquisition unit 33 may detect an area or road surface where a pedestrian may exist. The first color image 43 of one or a plurality of processing target areas corresponding to this area is output to the object detection unit 34 as a monitoring image.

第1カラー画像43は、第2カラー画像44よりも色解像度が高いので、歩行者や、路面の車線(白色もしくは黄色の車線等)を、高い信頼性で他の物体の画像と区別して検知することができる。   Since the first color image 43 has a higher color resolution than the second color image 44, it can detect pedestrians and road lanes (white or yellow lanes, etc.) with high reliability by distinguishing them from other object images. can do.

なお、夜間においては、歩行者や路面の車線(レーンマーク)を検知するために、ダイナミックレンジが広い第2カラー画像44を監視用画像として出力するようにしてもよい。   At night, the second color image 44 having a wide dynamic range may be output as a monitoring image in order to detect pedestrians and road lanes (lane marks).

本実施形態では、監視用画像取得部33は、上記の如くRx画像42rx、第1カラー画像43及び第2カラー画像44のいずれかを監視用画像として取得して、それを対象物検知部34に出力する。この場合、第1カラー画像43又は第2カラー画像44を監視用画して用いる場合は、それらのカラー画像43,44は、監視用画像取得部33により生成されて画像メモリ40に保持される。   In the present embodiment, the monitoring image acquisition unit 33 acquires any one of the Rx image 42rx, the first color image 43, and the second color image 44 as the monitoring image as described above, and uses it as the object detection unit 34. Output to. In this case, when the first color image 43 or the second color image 44 is used for monitoring, the color images 43 and 44 are generated by the monitoring image acquisition unit 33 and held in the image memory 40. .

補足すると、監視用画像取得部33の処理の態様として、上記の態様以外に、例えば次のような態様を採用してもよい。すなわち、監視用画像取得部33は、昼間等の明るい環境下では、第1カラー画像43だけを監視用画像として生成して出力する。   Supplementally, as the processing mode of the monitoring image acquisition unit 33, for example, the following modes may be adopted in addition to the above mode. That is, the monitoring image acquisition unit 33 generates and outputs only the first color image 43 as a monitoring image in a bright environment such as daytime.

そして、夜間での1つもしくは複数の処理対象領域における第1カラー画像43の各画素の輝度(各画素のR値、G値及びB値の線形結合値)と、カメラ2の露出度合いとから算出した該第1カラー画像43の明るさ度合いの平均値が、所定の閾値以上に達した場合、あるいは、第1カラー画像43のコントラスト(より具体的には、例えば第1カラー画像43の輝度の分散、あるいは、色ヒストグラムの分散)が、所定の閾値以上に達した場合に、監視用画像取得部33は、Rx画像42rxと第1カラー画像43との組、あるいは、第2カラー画像44を監視用画像として出力する。   Then, from the brightness of each pixel of the first color image 43 in one or more processing target areas at night (linear combination value of R value, G value, and B value of each pixel) and the exposure degree of the camera 2 When the calculated average value of the brightness level of the first color image 43 reaches a predetermined threshold or more, or the contrast of the first color image 43 (more specifically, for example, the brightness of the first color image 43 When the distribution of the color histogram or the dispersion of the color histogram reaches a predetermined threshold value or more, the monitoring image acquisition unit 33 sets the pair of the Rx image 42rx and the first color image 43 or the second color image 44. Is output as a monitoring image.

ここで、夜間において、カメラ2の撮影対象に、他車両のテールライトやヘッドライト、あるいは、信号機の発光部等の高輝度の発光物体が含まれるような状況では、該発光物体が含まれない場合に較べて、上記明るさ度合いの平均値や、コントラストが比較的大きくなる傾向がある。   Here, at night, in a situation in which a subject to be photographed by the camera 2 includes a high-luminance luminescent object such as a taillight or headlight of another vehicle or a light emitting unit of a traffic light, the luminescent object is not included. Compared to the case, the average value of the brightness and the contrast tend to be relatively large.

従って、カメラ2の撮影対象に高輝度の発光物体が含まれる場合に、その発光物体を検知しやすいRx画像42rx、あるいは、第2カラー画像44を監視用画像として活用することができる。   Therefore, when a high-luminance luminescent object is included in the shooting target of the camera 2, the Rx image 42rx or the second color image 44 that easily detects the luminescent object can be used as a monitoring image.

なお、上記明るさ度合いの平均値や、コントラストを算出する領域は、カメラ2の撮像画像の全体領域(原画像41の全体に一致する領域)でもよいが、カメラ2の撮像画像の全体のうちの一部の領域であってもよい。例えば、図13に示す如く、カメラ2の撮像画像の全体のうち、車両1(自車両)の前方の路面の無限遠点を含む一定範囲の領域A1(他車両が存在し得る領域)と、カメラ2の撮像画像の全体のうちの上部の領域A2(信号機や標識が存在し得る領域)とのうちの一方又は両方の領域でのみ、上記明るさ度合いの平均値や、コントラストを算出するようにしてもよい。   The average value of the brightness level and the area for calculating the contrast may be the entire area of the captured image of the camera 2 (area that matches the entire original image 41). It may be a part of the area. For example, as shown in FIG. 13, out of the entire captured image of the camera 2, an area A <b> 1 in a certain range including an infinite point on the road surface in front of the vehicle 1 (host vehicle) (an area where another vehicle can exist), The average value of the brightness level and the contrast are calculated only in one or both of the upper area A2 (area where a traffic signal or a sign can be present) in the entire captured image of the camera 2. It may be.

図4の説明に戻って、STEP4における監視用画像取得部33の処理に続いて、STEP5において、対象物検知部34により車両1の前方の監視対象物を検知する処理が実行される。   Returning to the description of FIG. 4, subsequent to the processing of the monitoring image acquisition unit 33 in STEP 4, processing of detecting the monitoring target ahead of the vehicle 1 is executed by the target detection unit 34 in STEP 5.

この処理では、対象物検知部34は、監視用画像取得部33から与えられる監視用画像を用いて、監視用対象物を検知する。例えば、夜間において、監視対象物としての他車両を検知する場合には、対象物検知部34は、監視用画像としてのRx画像42rx(又は第2カラー画像44)から、他車両のテールライト、もしくはヘッドライトの画像を、その色の特徴や、配置形態の特徴(2つの高輝度画像の対が左右に並ぶというような特徴)に基づいて検出することで、車両1(自車両)の前方に存在する他車両(前走車又は対向車)を検知する。   In this processing, the object detection unit 34 detects the monitoring object using the monitoring image provided from the monitoring image acquisition unit 33. For example, when detecting another vehicle as a monitoring target at night, the target detection unit 34 uses the taillight of the other vehicle from the Rx image 42rx (or the second color image 44) as the monitoring image. Alternatively, the headlight image is detected based on the feature of the color and the feature of the arrangement form (feature such that two pairs of high-intensity images are arranged side by side). Detects another vehicle (front vehicle or oncoming vehicle) present in

この場合、特に、Rx画像42rxは、赤色階調の画像であることから、他車両のテールライトの検知を好適に行なうことができる。   In this case, in particular, since the Rx image 42rx is a red gradation image, it is possible to suitably detect the taillight of another vehicle.

なお、昼間の明るい環境では、監視用画像として第1カラー画像43を用いることで、他車両を検知することができる。   In a bright environment in the daytime, the other vehicle can be detected by using the first color image 43 as the monitoring image.

また、監視対象物としての信号機や道路標識を検知する場合、あるいは、路面の車線(レーンマーク)を検知する場合、あるいは、歩行者を検知する場合には、対象物検知部34は、例えば、夜間には、監視用画像として、Rx画像(又は第2カラー画像44)を用い、昼間には、監視用画像として第1カラー画像43を使用することで、色特徴や、輝度分布の特徴、形状特徴等に基づいて、それらの監視対象物を検知する。   In addition, when detecting a traffic signal or a road sign as an object to be monitored, when detecting a lane (lane mark) on a road surface, or when detecting a pedestrian, the object detection unit 34 is, for example, By using the Rx image (or the second color image 44) as the monitoring image at night and using the first color image 43 as the monitoring image during the day, the color characteristics, the luminance distribution characteristics, Those monitoring objects are detected based on the shape features and the like.

この場合、対象物検知部34は、撮影環境(明るさ等)や、検知しようとする監視対象物の種別に応じて、監視対象物に特徴的な色や輝度分布、形状が顕著に現れやすい監視用画像(Rx画像42rx、第1カラー画像43、及び第2カラー画像44のうちのいずれか)を用いて該監視対象物を検知することができる。そのため、種々様々な環境下で、種々様々の対象物を高い信頼性で検出することができる。   In this case, the object detection unit 34 is prone to show noticeable colors, luminance distributions, and shapes that are characteristic of the monitoring object depending on the shooting environment (brightness, etc.) and the type of the monitoring object to be detected. The monitoring object can be detected using the monitoring image (any one of the Rx image 42rx, the first color image 43, and the second color image 44). Therefore, various objects can be detected with high reliability under various environments.

なお、対象物検知部34は、歩行者や他車両を検出した場合に、該歩行者や他車両と車両1(自車両)との接触の可能性を判断し、接触の可能性が有ると判断した場合には、車両コントローラ6に対して接触回避措置の実施を指示する制御信号を送信する。このとき、車両コントローラ6のディスプレイ表示制御部63は、ディスプレイ73に警報表示を行う。また、制動制御部62は、必要に応じて、制動装置72を作動させて接触を回避する処理を行う。   When the object detection unit 34 detects a pedestrian or another vehicle, the object detection unit 34 determines the possibility of contact between the pedestrian or other vehicle and the vehicle 1 (own vehicle). If it is determined, a control signal for instructing the vehicle controller 6 to perform the contact avoidance measure is transmitted. At this time, the display display control unit 63 of the vehicle controller 6 displays an alarm on the display 73. Moreover, the braking control part 62 performs the process which operates the braking device 72 and avoids a contact as needed.

また、対象物検知部34は、車線(レーンマーク)の検知に応じて、車両1(自車両)を、該車線により規定される自車両の走行領域内に維持して走行させるレーンキープ制御のための制御信号を車両コントローラ6に送信する。このとき、操舵制御部61が操舵装置71の作動を制御することで、レーンキープ制御を行なう。   In addition, the object detection unit 34 performs lane keeping control in which the vehicle 1 (own vehicle) is maintained and travels within the traveling region of the own vehicle defined by the lane in response to detection of the lane (lane mark). The control signal for transmitting to the vehicle controller 6 is transmitted. At this time, the steering control unit 61 controls the operation of the steering device 71 to perform lane keep control.

以上説明した実施形態によれば、カメラ2の撮像素子22に、カラー受光画素としてのR受光画素、G受光画素及びB受光画素に加えて、これらの受光画素よりも受光感度の低いRx受光画素を備えることによって、カメラ2の撮像対象に、カラー受光画素の出力信号の飽和が生じるような高輝度の物体(他車両のテールライトやヘッドライト、信号機の発光部等)が含まれているような場合であっても、該高輝度の物体の輝度分布を適切な解像度で示すRx画像42rxあるいは第2カラー画像44を取得することができる。   According to the embodiment described above, in addition to the R light receiving pixel, the G light receiving pixel, and the B light receiving pixel as the color light receiving pixels, the Rx light receiving pixel having lower light receiving sensitivity than these light receiving pixels. As a result, the object to be imaged by the camera 2 includes a high-luminance object (such as a taillight or headlight of another vehicle or a light emitting unit of a traffic light) that causes saturation of the output signal of the color light receiving pixel. Even in such a case, it is possible to acquire the Rx image 42rx or the second color image 44 showing the luminance distribution of the high-luminance object at an appropriate resolution.

このため、これらのRx画像42rx又は第2カラー画像44を用いて、他車両のテールライトやヘッドライト、信号機の発光部等の高輝度の物体を高い信頼性で検知するようにすることができる。   For this reason, by using these Rx images 42rx or the second color image 44, it is possible to detect a high-luminance object such as a taillight or headlight of another vehicle or a light emitting unit of a traffic light with high reliability. .

特にRx画像42rxは、赤色階調の画像であることから、車両1が道路環境を走行する上で重要性の高い赤色の高輝度物体(他車両のテールライトや、信号機の赤色発光部等)をRx画像42rxを用いて適切に検知することができる。   In particular, since the Rx image 42rx is a red gradation image, a high-intensity red object that is highly important for the vehicle 1 traveling in a road environment (such as a taillight of another vehicle or a red light emitting unit of a traffic light). Can be appropriately detected using the Rx image 42rx.

また、原画像41からデモザイキング処理によって生成したR画像42r、G画像42g、B画像42b及びRx画像42rxの4種類の色別画像42のうちの、受光感度が低いRx受光画素の出力信号の強度(原画像41のRx画素の階調値)をベースとするRx画像42rxと、4種類の色別画像42のうちの3原色分のR画像42r、G画像42g、B画像42bを合成してなる第1カラー画像43と、4種類の色別画像42の全てを合成してなる第2カラー画像44(第1カラー画像43をRx画像42rxに輝度分布に応じて補正してなるカラー画像)のいずれかが、監視用画像として用いられる。   In addition, among the four types of color-specific images 42 of the R image 42r, the G image 42g, the B image 42b, and the Rx image 42rx generated from the original image 41 by the demosaicing process, The Rx image 42rx based on the intensity (the gradation value of the Rx pixel of the original image 41) and the R image 42r, the G image 42g, and the B image 42b for the three primary colors among the four types of color-specific images 42 are synthesized. And a second color image 44 (a color image obtained by correcting the first color image 43 to an Rx image 42rx according to the luminance distribution). ) Is used as a monitoring image.

この場合、Rx画像42rxは、高輝度の撮影対象の画像を適切な解像で得ることができる画像である。また、第1カラー画像43は、色再現性の高いカラー画像である。また、第3カラー画像44は、第1カラー画像43よりも色再現性やコントラストは低下し易いものの、第1カラー画像43よりもダイナミックレンジの広いカラー画像である。   In this case, the Rx image 42rx is an image that can obtain an image of a high-luminance shooting target with an appropriate resolution. The first color image 43 is a color image with high color reproducibility. The third color image 44 is a color image having a dynamic range wider than that of the first color image 43, although color reproducibility and contrast are likely to be lower than those of the first color image 43.

このため、これらのRx画像42rx、第1カラー画像43、第2カラー画像44のいずれかを利用することで、種々様々な監視対象物を、種々様々な撮影環境下で高い信頼性で検出するようにすることができる。   For this reason, by using any one of the Rx image 42rx, the first color image 43, and the second color image 44, various monitoring objects are detected with high reliability under various photographing environments. Can be.

[変形態様について]
次に、本発明の実施形態に関するいくつかの変形態様を説明する。
[Modification]
Next, some modifications regarding the embodiment of the present invention will be described.

前記実施形態では、監視用画像として、Rx画像42rx、第1カラー画像43及び第2カラー画像44を用いたが、Rx画像42rx及び第2カラー画像44のいずれか一方のみと、第1カラー画像43とを監視用画像として用いるようにしてもよい。   In the embodiment, the Rx image 42rx, the first color image 43, and the second color image 44 are used as the monitoring image. However, only one of the Rx image 42rx and the second color image 44 and the first color image are used. 43 may be used as a monitoring image.

また、前記実施形態では、カメラ2は、車両1(自車両)の前方を撮影するものであるが、車両1の前方以外の領域(例えば後方)を撮影し得るカメラであってもよい。   Moreover, in the said embodiment, although the camera 2 image | photographs the front of the vehicle 1 (own vehicle), the camera which can image | photograph area | regions (for example, back) other than the front of the vehicle 1 may be sufficient.

また、前記実施形態では、副受光画素としてのRx受光画素を、撮像素子22の全体に分布させるように配置したが、撮像素子22の一部の領域にだけ、Rx受光画素(副受光画素)を分布させるように配置してもよい。例えば、撮像素子22の全体のうち、図13のA1に対応する領域(カメラ2の撮像領域のうちの路面の無限遠点を含む部分領域)と、図13のA2に対応する領域(カメラ2の撮像領域のうちの上部の領域)とのうちの一方又は両方にだけRx受光画素の配列が含まれるようにしてもよい。   In the above-described embodiment, the Rx light receiving pixels as the sub light receiving pixels are arranged so as to be distributed over the entire image pickup device 22, but the Rx light receiving pixels (sub light receiving pixels) are provided only in a part of the image pickup device 22. May be arranged so as to be distributed. For example, in the entire image sensor 22, an area corresponding to A1 in FIG. 13 (partial area including an infinite point on the road surface in the imaging area of the camera 2) and an area corresponding to A2 in FIG. The arrangement of the Rx light receiving pixels may be included only in one or both of the upper imaging area).

車両1の前方を撮影するカメラ2(又は車両1の後方を撮影するカメラ)では、上記A1、A2に対応する撮像領域に高輝度の発光物体(他車両のテールライトやヘッドライト、あるいは信号機の発光部)が含まれる場合が多い。従って、Rx受光画素(副受光画素)を配列させる領域を、上記のように撮像素子22の全体のうちの一部の領域に限定しても、当該領域におけるRx画像42rxや、第2カラー画像44を用いて、車両1の前方(又は後方)の高輝度の監視対象物を検知するようにすることができる。   In the camera 2 that captures the front of the vehicle 1 (or the camera that captures the rear of the vehicle 1), a high-luminance light-emitting object (taillight or headlight of another vehicle or traffic light) is displayed in the imaging region corresponding to the above A1 and A2. In many cases, a light emitting part) is included. Therefore, even if the region where the Rx light receiving pixels (sub light receiving pixels) are arranged is limited to a part of the entire image sensor 22 as described above, the Rx image 42rx and the second color image in the region are also included. 44 can be used to detect a high-brightness monitoring object in front of (or behind) the vehicle 1.

なお、この場合には、撮像素子22の全体のうち、Rx受光画素が配列される領域以外の領域では、R受光画素、G受光画素、及びB受光画素を、例えば公知のベイヤー配列等の配列パターンで配列しておくようにすればよい。そして、色別画像生成部32の処理では、Rx受光画素が配列される領域においてだけ、Rx画像42rxを含む4種類の色別画像42を生成し、それ以外の領域では、通常的な公知のデモザイキング処理により、第1カラー画像43の生成用のR画像42r、G画像42g、B画像42bを生成するようにすればよい。   In this case, in the region other than the region where the Rx light receiving pixels are arranged in the entire image pickup device 22, the R light receiving pixels, the G light receiving pixels, and the B light receiving pixels are arranged in a known Bayer arrangement, for example. It may be arranged in a pattern. Then, in the processing by the color-specific image generation unit 32, four types of color-specific images 42 including the Rx image 42rx are generated only in the region where the Rx light receiving pixels are arranged, and in the other regions, a general known publicly known image is generated. An R image 42r, a G image 42g, and a B image 42b for generating the first color image 43 may be generated by the demosaicing process.

また、前記実施形態では、図2(a)に示した配列パターンで受光画素を配置した撮像素子22を例にとって説明したが、その配列パターンは、図14(a)又は図14(b)に示すような配列パターンであってもよい。   In the above embodiment, the image sensor 22 in which the light receiving pixels are arranged in the arrangement pattern shown in FIG. 2A has been described as an example. The arrangement pattern is shown in FIG. 14A or FIG. An arrangement pattern as shown may be used.

図14(a)の配列パターンは、R受光画素の個数とG受光画素の個数とB受光画素の個数とRx受光画素の個数との比率が1:1:1:1となるパターンである。また、図14(b)の配列パターンは、R受光画素の個数とG受光画素の個数とB受光画素の個数とRx受光画素の個数との比率が1:4:2:1となるパターンである。   The arrangement pattern of FIG. 14A is a pattern in which the ratio of the number of R light receiving pixels, the number of G light receiving pixels, the number of B light receiving pixels, and the number of Rx light receiving pixels is 1: 1: 1: 1. 14B is a pattern in which the ratio of the number of R light receiving pixels, the number of G light receiving pixels, the number of B light receiving pixels, and the number of Rx light receiving pixels is 1: 4: 2: 1. is there.

なお、図14(a)の配列パターンでは、色別画像生成部32の処理において、G画像42gとRx画像42rxとのいずれかを基準輝度分布画像として生成する態様の他、Rx画像42rxと、R画像42rもしくはB画像42bとのいずれかを基準輝度分布画像として生成するようにしてもよい。   In the arrangement pattern of FIG. 14A, in the process of the color-specific image generation unit 32, in addition to the aspect of generating either the G image 42g or the Rx image 42rx as the reference luminance distribution image, the Rx image 42rx, Either the R image 42r or the B image 42b may be generated as the reference luminance distribution image.

一方、図14(b)の配列パターンでは、図2(a)のものと同様にR受光画素及びB受光画素のそれぞれの個数よりもG受光画素の個数の方が多いので、例えば前記実施形態と同様に、G画像42gとRx画像42rxとのいずれかを基準輝度分布画像として生成するようにすればよい。   On the other hand, in the arrangement pattern of FIG. 14B, the number of the G light receiving pixels is larger than the number of each of the R light receiving pixels and the B light receiving pixels as in the case of FIG. Similarly to the above, either the G image 42g or the Rx image 42rx may be generated as the reference luminance distribution image.

補足すると、カラーフィルタの配列パターンにかかわらず、検知しようとする対象物の種別や、検知環境、受光画素の特性等に依存して、対象物の検知のために要求される情報に応じて、基準輝度分布画像として生成する色別画像を選定するようにしてもよい。ただし、撮像素子22を構成する受光画素において、各色のカラーフィルタ毎の受光画素の個数の比率が均一な比率(互いに同じ個数の比率)でない場合には、一般的には、最も個数の多い色の受光画素に対応する階調値を基に、当該色の色別画像を基準輝度分布画像として生成することが望ましい。   Supplementally, depending on the information required for detection of the object, depending on the type of the object to be detected, the detection environment, the characteristics of the light receiving pixel, etc., regardless of the arrangement pattern of the color filter, You may make it select the image according to color produced | generated as a reference | standard brightness distribution image. However, in the light receiving pixels constituting the image sensor 22, generally, when the ratio of the number of light receiving pixels for each color filter of each color is not a uniform ratio (the same number ratio), the largest number of colors It is desirable to generate a color-specific image as the reference luminance distribution image based on the gradation value corresponding to the light receiving pixel.

また、前記実施形態では、副受光画素として、赤色の波長域の光を受光するRx受光画素を撮像素子22に備えるようにしたが、Rx受光画素の代わりに、赤色以外の色、例えばグレー色の光を受光する受光画素を副受光画素として撮像素子22に備えるようにしてもよい。該副受光画素は、詳しくは、グレー色のカラーフィルタを介して受光し、且つ、カラー受光画素(R受光画素、G受光画素、及びB受光画素)よりも受光感度が低い受光画素(以降、Gr受光画素という)である。   In the above embodiment, the Rx light receiving pixel that receives light in the red wavelength range is provided in the image sensor 22 as the sub light receiving pixel. However, instead of the Rx light receiving pixel, a color other than red, for example, a gray color is provided. The image sensor 22 may include a light-receiving pixel that receives the light as a sub-light-receiving pixel. Specifically, the sub light receiving pixel receives light through a gray color filter and has a light receiving sensitivity lower than that of the color light receiving pixels (R light receiving pixel, G light receiving pixel, and B light receiving pixel) (hereinafter referred to as “light receiving pixels”). Gr light receiving pixel).

例えば、図15(a)又は図15(b)又は図15(c)で示すような配列パターンで、R受光画素、G受光画素、及びB受光画素と、Gr受光画素(副受光画素)とを配列した撮像素子を採用してもよい。   For example, in an array pattern as shown in FIG. 15A, FIG. 15B, or FIG. 15C, an R light receiving pixel, a G light receiving pixel, and a B light receiving pixel, and a Gr light receiving pixel (sub light receiving pixel) You may employ | adopt the image pick-up element which arranged.

この場合、Gr受光画素の受光感度は、入射光の波長に対して図16のグラフで示すような特性を有し、R受光画素やG受光画素、B受光画素の受光感度よりも低いものとされる。   In this case, the light receiving sensitivity of the Gr light receiving pixel has characteristics as shown in the graph of FIG. 16 with respect to the wavelength of the incident light, and is lower than the light receiving sensitivity of the R light receiving pixel, the G light receiving pixel, and the B light receiving pixel. Is done.

このようなGr受光画素を含む撮像素子を用いた場合には、原画像から、デモザイキング処理によって、R画像42r、G画像42g及びB画像42の他、グレー階調のモノトーン画像であるGr画像を生成できる。   When such an image sensor including a Gr light receiving pixel is used, a Gr image which is a gray-tone monotone image in addition to the R image 42r, the G image 42g, and the B image 42 from the original image by a demosaicing process. Can be generated.

例えば、図15(c)の配列パターンは、図2(a)に示した前記実施形態の配列パターンのうちのRx受光画素を、Gr受光画素に置き換えたものとなる。   For example, the array pattern of FIG. 15C is obtained by replacing the Rx light receiving pixels in the array pattern of the embodiment shown in FIG. 2A with Gr light receiving pixels.

このため、図15(c)の配列パターンの受光素子を採用した場合には、前記実施形態と同様のデモザイキング処理(Rの階調値に代わりに、Grの階調値を用いるデモザイキング処理)により、Gr画像を生成できる。さらに、このGr画像とR画像42r、G画像42g及びB画像42とを合成することで、前記実施形態と同様に、第2カラー画像を生成することもできる。   For this reason, when the light receiving elements having the arrangement pattern of FIG. 15C are employed, the demosaicing process similar to that of the above embodiment (the demosaicing process using the Gr gradation value instead of the R gradation value). ) To generate a Gr image. Further, by synthesizing the Gr image, the R image 42r, the G image 42g, and the B image 42, a second color image can be generated as in the above embodiment.

この場合、Gr画像は、他車のテールライト等の赤色の発光物体に限らず、撮影対象に高輝度の物体が含まれる場合に、その物体の輝度分布を適切な解像度で示す画像となる。このため、Gr画像又はこれを用いて生成した第2カラー画像を用いて、他車両のテールライトやヘッドライト、信号機の発光部等の種々様々の高輝度の物体を高い信頼性で検知するようにすることができる。   In this case, the Gr image is not limited to a red light emitting object such as a taillight of another vehicle, but is an image indicating the luminance distribution of the object at an appropriate resolution when the object to be photographed includes a high luminance object. For this reason, various high-intensity objects such as taillights and headlights of other vehicles and light emitting parts of traffic lights are detected with high reliability using the Gr image or the second color image generated using the Gr image. Can be.

2…カメラ、22…撮像素子、31…原画像取得部(原画像取得手段)、32…色別画像生成部(色別画像生成手段)、33…監視用画像取得部(監視用画像取得手段)。   DESCRIPTION OF SYMBOLS 2 ... Camera, 22 ... Image pick-up element, 31 ... Original image acquisition part (original image acquisition means), 32 ... Color-specific image generation part (color-specific image generation means), 33 ... Monitoring image acquisition part (Monitoring image acquisition means) ).

Claims (6)

車両の周辺を撮影するために該車両に搭載されたカメラとして、カラー映像の組成色となる所定の複数種の色のうちの各種類の色の光をそれぞれ受光する複数のカラー受光画素と、該カラー受光画素よりも低い受光感度で所定色の光を受光する複数の副受光画素とを配列してなる撮像素子を有するカメラを備えることを特徴とする車両周辺監視装置。   As a camera mounted on the vehicle for photographing the periphery of the vehicle, a plurality of color light receiving pixels that respectively receive light of each type of a predetermined plurality of types of colors that are composition colors of a color image; A vehicle periphery monitoring device comprising: a camera having an image pickup device in which a plurality of sub light receiving pixels that receive light of a predetermined color with light receiving sensitivity lower than that of the color light receiving pixels are arranged. 請求項1記載の車両周辺監視装置において、
前記副受光画素の前記所定色は、赤色であることを特徴とする車両周辺監視装置。
The vehicle periphery monitoring device according to claim 1,
The vehicle periphery monitoring device, wherein the predetermined color of the sub light receiving pixel is red.
請求項1記載の車両周辺監視装置において、
前記副受光画素の前記所定色は、グレー色であることを特徴とする車両周辺監視装置。
The vehicle periphery monitoring device according to claim 1,
The vehicle periphery monitoring device according to claim 1, wherein the predetermined color of the sub light-receiving pixel is a gray color.
請求項1〜3のいずれか1項に記載の車両周辺監視装置において、
前記カメラは前記車両の前方又は後方を撮像するように該車両に搭載されており、前記副受光画素は、前記撮像素子のうちの一部の領域内で前記カラー受光画素と共に配列されており、当該一部の領域には、前記カメラの撮像領域の全体のうちの上部の領域に対応する領域と、前記カメラの撮像領域の全体のうちの前記車両の前方の路面の無限遠点を含む部分領域に対応する領域とのうちの少なくともいずれか一方の領域が含まれることを特徴とする車両周辺監視装置。
In the vehicle periphery monitoring device according to any one of claims 1 to 3,
The camera is mounted on the vehicle so as to image the front or the rear of the vehicle, and the sub light receiving pixels are arranged together with the color light receiving pixels in a partial area of the image sensor, The partial area includes an area corresponding to an upper area of the entire imaging area of the camera, and a portion including an infinite point on the road surface ahead of the vehicle in the entire imaging area of the camera A vehicle periphery monitoring device comprising at least one of the regions corresponding to the region.
請求項1〜4のいずれか1項に記載の車両周辺監視装置において、
前記カメラにより撮像された原画像であって、前記撮像素子の各受光画素がその受光レベルに応じて出力する出力信号の強度を示す階調値がそれぞれ割り当てられた複数の画素により構成される原画像を取得する原画像取得手段と、
前記原画像のうち、複数の前記カラー受光画素と複数の前記副受光画素とを包含する少なくとも一部の領域である処理対象領域における該原画像の各画素の階調値に基づいて、該処理対象領域の各画素における前記複数種の色のそれぞれの階調値と前記所定色の階調値とを決定することにより、前記複数種の色及び所定色のそれぞれの色に対応する複数の色別画像を生成する色別画像生成手段と、
前記複数の色別画像のうちの前記複数種の色にそれぞれ対応する色別画像を合成してなる第1カラー画像と、前記所定色の色別画像と、前記複数の色別画像のうちの全ての色別画像を合成してなる第2カラー画像とのうちの少なくともいずれか1つの画像を車両周辺の監視用の画像として取得する監視用画像取得手段とを備えることを特徴とする車両周辺監視装置。
In the vehicle periphery monitoring device according to any one of claims 1 to 4,
An original image picked up by the camera, which is composed of a plurality of pixels each assigned with a gradation value indicating the intensity of an output signal output by each light receiving pixel of the image sensor in accordance with the light receiving level. An original image acquisition means for acquiring an image;
Based on the gradation value of each pixel of the original image in a processing target area that is at least a part of the original image including a plurality of color light receiving pixels and a plurality of sub light receiving pixels. A plurality of colors corresponding to each of the plurality of colors and the predetermined color by determining a gradation value of each of the plurality of colors and a gradation value of the predetermined color in each pixel of the target region Color-specific image generation means for generating another image;
Of the plurality of color-specific images, the first color image formed by combining the color-specific images corresponding to the plurality of types of colors, the color-specific image of the predetermined color, and the plurality of color-specific images A vehicle periphery comprising: a monitoring image acquisition means for acquiring at least one image of a second color image obtained by combining all the color-specific images as a monitoring image around the vehicle Monitoring device.
請求項5記載の車両周辺監視装置において、
前記監視用画像取得手段は、前記第1カラー画像の明るさ度合い又はコントラストに応じて、第1カラー画像、前記所定色の色別画像及び第2カラー画像のうちの、車両周辺の監視用の画像として取得する画像を切替えることを特徴とする車両周辺監視装置。
In the vehicle periphery monitoring device according to claim 5,
The monitoring image acquisition means is for monitoring around the vehicle of the first color image, the color-specific image of the predetermined color, and the second color image according to the brightness level or contrast of the first color image. A vehicle periphery monitoring device, wherein an image acquired as an image is switched.
JP2012048637A 2012-03-05 2012-03-05 Vehicle periphery monitoring apparatus Pending JP2013187573A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012048637A JP2013187573A (en) 2012-03-05 2012-03-05 Vehicle periphery monitoring apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012048637A JP2013187573A (en) 2012-03-05 2012-03-05 Vehicle periphery monitoring apparatus

Publications (1)

Publication Number Publication Date
JP2013187573A true JP2013187573A (en) 2013-09-19

Family

ID=49388689

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012048637A Pending JP2013187573A (en) 2012-03-05 2012-03-05 Vehicle periphery monitoring apparatus

Country Status (1)

Country Link
JP (1) JP2013187573A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018160785A (en) * 2017-03-22 2018-10-11 パナソニックIpマネジメント株式会社 Image generating apparatus, image generating method, program, and recording medium recording the same

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018160785A (en) * 2017-03-22 2018-10-11 パナソニックIpマネジメント株式会社 Image generating apparatus, image generating method, program, and recording medium recording the same

Similar Documents

Publication Publication Date Title
JP5595606B2 (en) Image processing device
JP5668951B2 (en) Image input device
JP6026670B2 (en) Vehicle lamp control device
CN103975585B (en) Image processing apparatus
CN105453532B (en) Photographic device, image capture method and automotive camera system
JP2013223152A (en) Image pickup device
JP5712821B2 (en) Shooting display control system
JP2008110715A (en) Auto light system for vehicles
KR100791192B1 (en) Vehicle image generating device and method
JP5545596B2 (en) Image input device
JP2013187573A (en) Vehicle periphery monitoring apparatus
JP2015177391A (en) Image processing apparatus, imaging apparatus, image processing program, and image processing method
JP5904825B2 (en) Image processing device
JP2012008845A (en) Image processor
JP2019197948A (en) Imaging device and method for controlling the same
JP2013187572A (en) Image processing apparatus
JP2014109853A (en) Vehicle periphery monitoring device
JP2013009041A (en) Vehicle photographing display control system
JP6594557B2 (en) Image processing apparatus and light distribution control system
JP6712886B2 (en) Imaging device, imaging method, and vehicle
JP2014057225A (en) Vehicle monitoring apparatus
JP2011251600A (en) Device for detecting brake operation
JP2006005621A (en) Imaging device
WO2020195515A1 (en) Imaging device and image processing method
JP2006005624A (en) Imaging device