[go: up one dir, main page]

JP2013009041A - Vehicle photographing display control system - Google Patents

Vehicle photographing display control system Download PDF

Info

Publication number
JP2013009041A
JP2013009041A JP2011138678A JP2011138678A JP2013009041A JP 2013009041 A JP2013009041 A JP 2013009041A JP 2011138678 A JP2011138678 A JP 2011138678A JP 2011138678 A JP2011138678 A JP 2011138678A JP 2013009041 A JP2013009041 A JP 2013009041A
Authority
JP
Japan
Prior art keywords
infrared light
luminance
intensity
display control
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011138678A
Other languages
Japanese (ja)
Inventor
Kazuyoshi Akiba
一芳 秋葉
Kazunari Hattori
和成 服部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2011138678A priority Critical patent/JP2013009041A/en
Publication of JP2013009041A publication Critical patent/JP2013009041A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To perform appropriate switching corresponding to a travel scene of a vehicle in a photographing display control system for switching a calculation method of luminance by using signals of visible light and near infrared light.SOLUTION: The photographing display control system includes: a camera 2 including a signal processing section 23 for calculating the luminance of respective pixels on the basis of intensity of visible light and near infrared light which an imaging element 22 receives and outputting RAW data showing the intensity of the visible light and the near infrared light; and an image recognition section 8 for displaying the image based on the luminance of the respective pixels, which the signal processing section 23 calculates. The image recognition section 8 searches an object which is previously set as an object which strongly reflects or discharges the near infrared light on the basis of the RAW data. When the object which strongly reflects or discharges the near infrared light cannot be detected as a result of search, the luminance of the respective pixels is calculated by a first calculation method. When the object has been detected, the luminance of the respective pixels is calculated by a second calculation method with which contribution of the intensity of the near infrared light to the luminance becomes lower than the first method.

Description

本発明は、車両用撮影表示制御システムに関するものである。   The present invention relates to an imaging display control system for a vehicle.

従来、車両用の撮影表示制御システムにおいて、近赤外光を受光する複数個の近赤外光用撮像素子と可視光を受光する複数個の可視光用撮像素子とを有する撮像ユニットを備え、この撮像ユニットを用いて各画素の可視光強度および各画素の近赤外光強度を取得し、各画素の可視光強度に基づいて得られる各画素の輝度を、近赤外光強度に応じて増加させることで、夜間等の暗い環境でもユーザに見易い画像を提供する技術が知られている。   Conventionally, an imaging display control system for a vehicle includes an imaging unit having a plurality of near-infrared light imaging elements that receive near-infrared light and a plurality of visible light imaging elements that receive visible light, Using this imaging unit, the visible light intensity of each pixel and the near-infrared light intensity of each pixel are acquired, and the luminance of each pixel obtained based on the visible light intensity of each pixel is determined according to the near-infrared light intensity. A technique for providing an image that is easy for the user to see even in a dark environment such as at night is known.

また、このような車両用の撮影表示制御システムにおいて、近赤外光が強い場所を撮影するときと弱い場所を撮影する時とで、可視光および近赤外光の信号を用いた輝度の計算方法を切り替える技術が知られている(例えば、特許文献1、2参照)。   In such a vehicle display control system, luminance calculation using visible light and near infrared light signals is performed when photographing a place where the near infrared light is strong and photographing a weak place. Techniques for switching methods are known (see, for example, Patent Documents 1 and 2).

特開2010−98358号公報JP 2010-98358 A 特開2008−289000号公報JP 2008-289000 A

しかし、上記のような技術は、車両周囲の環境が近赤外光の強い環境か弱い環境か(より典型的には昼か夜か)で輝度の計算方法を切り替えているに過ぎない。しかし、夜であっても、車両の走行シーンによっては、近赤外光を強く反射または放出する被写体も存在するので、計算方法の切り替え方法が必ずしも適切ではない。   However, the technique as described above merely switches the calculation method of the luminance depending on whether the environment around the vehicle is an environment where the near-infrared light is strong or weak (more typically day or night). However, even at night, depending on the driving scene of the vehicle, there is a subject that strongly reflects or emits near-infrared light, so that the calculation method switching method is not always appropriate.

本発明は上記点に鑑み、可視光および近赤外光の信号を用いた輝度の計算方法を切り替えることのできる撮影表示制御システムにおいて、車両の走行シーンに応じた適切な切り替えを行えるようにすることを目的とする。   In view of the above points, the present invention enables an appropriate switching according to a traveling scene of a vehicle in an imaging display control system capable of switching a luminance calculation method using visible light and near infrared light signals. For the purpose.

上記目的を達成するための請求項1に記載の発明は、可視光および近赤外光を受光する撮像素子(22)および前記撮像素子(22)が受光した可視光および近赤外光の強度に基づいて各画素の輝度を算出する信号処理手段(23)を有し、前記信号処理手段(23)が算出した各画素の輝度を出力すると共に、前記撮像素子(22)が受光した可視光および近赤外光の強度を出力するカメラ(2)と、前記カメラ(2)が出力した前記各画素の輝度に基づいた画像をディスプレイ(9)に表示させる表示制御手段(8)と、を備え、前記表示制御手段(8)は、前記カメラ(2)が出力した前記可視光および近赤外光の強度に基づいて、近赤外光を強く反射または放出する被写体としてあらかじめ設定された被写体を画像認識によって探索し、探索の結果近赤外光を強く反射または放出する被写体が見つからなかった場合は、前記撮像素子(22)が受光した可視光および近赤外光の強度に基づいて、第1の算出方法で各画素の輝度を算出し、探索の結果近赤外光を強く反射または放出する被写体が見つかった場合は、前記撮像素子(22)が受光した可視光および近赤外光の強度に基づいて、前記第1の方法よりも輝度に対する近赤外光の強度の寄与が低くなるような第2の算出方法で、各画素の輝度を算出するよう、前記信号処理手段(23)を制御することを特徴とする車両用撮影表示制御システムである。   In order to achieve the above object, the invention according to claim 1 is directed to an image sensor (22) that receives visible light and near infrared light, and the intensity of visible light and near infrared light received by the image sensor (22). Signal processing means (23) for calculating the luminance of each pixel based on the output, outputs the luminance of each pixel calculated by the signal processing means (23), and visible light received by the imaging device (22) And a camera (2) that outputs the intensity of near-infrared light, and display control means (8) that causes the display (9) to display an image based on the luminance of each pixel output from the camera (2). The display control means (8) is a subject preset as a subject that strongly reflects or emits near-infrared light based on the intensities of the visible light and near-infrared light output by the camera (2). Search by image recognition If no object that strongly reflects or emits near-infrared light is found as a result of the search, the first calculation method is used based on the intensities of visible light and near-infrared light received by the image sensor (22). When the luminance of each pixel is calculated and a subject that strongly reflects or emits near infrared light is found as a result of the search, based on the intensity of visible light and near infrared light received by the imaging device (22), Controlling the signal processing means (23) so as to calculate the luminance of each pixel by a second calculation method in which the contribution of the intensity of near-infrared light to the luminance is lower than that of the first method. This is a vehicle image display control system.

このように、近赤外光を強く反射または放出する被写体をあらかじめ設定しておき、そのような被写体が画像認識が見つかった場合と見つからなかった場合とで、輝度の計算方法を変えることで、車両の走行シーンに応じた適切な切り替えを行えるようにすることができる。そして、近赤外光を強く反射または放出する被写体が見つかった場合は、輝度計算の際に近赤外光強度の寄与を低くするので、そのユーザは、ディスプレイ(9)上で、その被写体が明るすぎて見づらくなってしまう可能性が低下する。   In this way, by setting in advance a subject that strongly reflects or emits near-infrared light, and by changing the luminance calculation method when such a subject is found or not found, It is possible to perform appropriate switching according to the traveling scene of the vehicle. When a subject that strongly reflects or emits near-infrared light is found, the contribution of the near-infrared light intensity is reduced during the luminance calculation, so that the user can view the subject on the display (9). The possibility of being too bright and difficult to see decreases.

また、請求項2に記載の発明は、請求項1に記載の車両用撮影表示制御システムにおいて、前記あらかじめ設定された被写体は、道路標識を含むことを特徴とする。このように、近赤外光を強く反射または放出する被写体として道路標識をあらかじめ設定しておくことで、車両の走行時に、道路標識が明るすぎて見づらくなってしまう可能性が低下する。   According to a second aspect of the present invention, in the vehicle photographing display control system according to the first aspect, the preset subject includes a road sign. Thus, by setting the road sign as a subject that strongly reflects or emits near infrared light in advance, the possibility that the road sign becomes too bright and difficult to see when the vehicle is traveling is reduced.

また、請求項3に記載の発明は、請求項1または2に記載の車両用撮影表示制御システムにおいて、前記あらかじめ設定された被写体は、信号機、車両の前照灯、ブレーキランプ、およびウインカーのうち少なくとも1つを含むことを特徴とする。   According to a third aspect of the present invention, in the vehicle photographing display control system according to the first or second aspect, the preset subject is a traffic light, a vehicle headlamp, a brake lamp, or a blinker. It is characterized by including at least one.

このように、近赤外光を強く反射または放出する被写体として信号機、車両の前照灯、ブレーキランプ、およびウインカーのうち少なくとも1つををあらかじめ設定しておくことで、車両の走行時に、信号機または前照灯またはブレーキランプまたはウインカーのハレーション(色信号が飽和して白飛びすること)を低減することができる。   Thus, by setting at least one of a traffic light, a vehicle headlight, a brake lamp, and a turn signal as a subject that strongly reflects or emits near-infrared light in advance, Alternatively, it is possible to reduce the halation of the headlamp, the brake lamp, or the turn signal (the color signal is saturated and the whiteout occurs).

また、請求項4に記載の発明は、請求項1ないし3のいずれか1つに記載の車両用撮影表示制御システムにおいて、前記信号処理手段(23)は更に、前記撮像素子(22)が受光した可視光の強度に基づいて各画素の色成分を算出し、前記表示制御手段(8)は、前記信号処理手段(23)が算出した前記各画素の輝度および色成分に基づいた画像をディスプレイ(9)に表示させ、更に前記表示制御手段(8)は、前記カメラ(2)から受けた前記映像信号に基づいて、近赤外光を強く反射または放出する被写体を画像認識によって探索し、探索の結果近赤外光を強く反射または放出する被写体が見つからなかった場合に比べて見つかった場合は、同じ可視光強度に対して、各画素の色成分の絶対値を大きくすることを特徴とする。   According to a fourth aspect of the present invention, in the vehicular photographing display control system according to any one of the first to third aspects, the signal processing means (23) is further configured to receive light by the imaging element (22). The color component of each pixel is calculated based on the intensity of the visible light, and the display control means (8) displays an image based on the luminance and color component of each pixel calculated by the signal processing means (23). (9), and further, the display control means (8) searches for a subject that strongly reflects or emits near-infrared light by image recognition based on the video signal received from the camera (2), As a result of the search, if an object that strongly reflects or emits near-infrared light is not found, the absolute value of the color component of each pixel is increased for the same visible light intensity. To do.

このようにすることで、そのユーザは、ディスプレイ(9)上で、その被写体の色をよりはっきりと確認することができる。例えば、その被写体の内部の文字等の確認も容易になる。   By doing in this way, the user can confirm the color of the subject more clearly on the display (9). For example, it is easy to check characters inside the subject.

また、請求項5に記載の発明は、請求項1ないし4のいずれか1つに記載の車両用撮影表示制御システムにおいて、当該車両用撮影表示制御システムが搭載される車両には、前記車両の前方に近赤外光を投射するIR投光部(7)があり、前記表示制御手段(8)は、探索の結果近赤外光を強く反射または放出する被写体が見つかった場合でも、その見つかった被写体の画素数が閾値以上である場合は、前記第1の方法で、各画素の輝度を算出するよう、前記信号処理手段(23)を制御することを特徴とする。   According to a fifth aspect of the present invention, in the vehicle photographing display control system according to any one of the first to fourth aspects, a vehicle on which the vehicle photographing display control system is mounted includes the vehicle. There is an IR light projecting unit (7) that projects near-infrared light in the front, and the display control means (8) is able to find the object that strongly reflects or emits near-infrared light as a result of the search. When the number of pixels of the subject is greater than or equal to a threshold value, the signal processing means (23) is controlled to calculate the luminance of each pixel by the first method.

これは、IR投光部(7)によって近赤外光が投光される位置が、車両からある程度前方に離れた部分であり、車両の近傍にはIR投光部(7)からの光が当たらないため、当該道路標識が近赤外光を強く反射しない可能性があるから、そのような道路標識のために輝度の計算方法を第2の方法にするよりは、全体の視認性を向上させた方がよい可能性が高いからである。   This is a portion where the near-infrared light is projected by the IR light projecting unit (7) is a part away from the vehicle to some extent, and the light from the IR light projecting unit (7) is in the vicinity of the vehicle. Since the road sign may not reflect near-infrared light strongly, the overall visibility is improved compared to the second method for calculating the luminance for such road sign. It is because there is a high possibility that it is better to let them.

なお、上記および特許請求の範囲における括弧内の符号は、特許請求の範囲に記載された用語と後述の実施形態に記載される当該用語を例示する具体物等との対応関係を示すものである。   In addition, the code | symbol in the bracket | parenthesis in the said and the claim shows the correspondence of the term described in the claim, and the concrete thing etc. which illustrate the said term described in embodiment mentioned later. .

車両用撮影表示制御システム1の構成図である。It is a block diagram of the imaging | photography display control system 1 for vehicles. 画像認識部が実行する処理のフローチャートである。It is a flowchart of the process which an image recognition part performs. ナイトビジョンカメラにIRの強い被写体51〜56が入った状態の画像の一例を示す図である。。It is a figure which shows an example of the state in which the subjects 51-56 with strong IR entered the night vision camera. . 仮にIR係数がデフォルト値であった場合にディスプレイに表示される画像の一例を示す図である。It is a figure which shows an example of the image displayed on a display, when IR coefficient is a default value. IR係数が制限値である場合にディスプレイに表示される画像の一例を示す図である。It is a figure which shows an example of the image displayed on a display when IR coefficient is a limiting value.

以下、本発明の一実施形態について説明する。図1に、本実施形態に係る車両用撮影表示制御システム1の構成を示す。この車両用撮影表示制御システム1は、車両に搭載され、車室内の乗員(ドライバ等)に車外の撮影画像を表示するためのシステムであり、ナイトビジョンカメラ2、車両の前方に近赤外光を投射するIR投光部7、画像認識部8、ディスプレイ9等を有している。   Hereinafter, an embodiment of the present invention will be described. FIG. 1 shows a configuration of a vehicle shooting display control system 1 according to the present embodiment. This vehicle display control system 1 is a system that is mounted on a vehicle and displays a captured image outside the vehicle to passengers (drivers, etc.) in the passenger compartment. The night vision camera 2 and near-infrared light in front of the vehicle. An IR light projecting unit 7, an image recognizing unit 8, a display 9, and the like.

ナイトビジョンカメラ2は、可視光および近赤外光を受光し、受光した可視光および近赤外光に基づいた輝度および色成分の映像信号を画像認識部8に出力するカメラである。このナイトビジョンカメラ2は、車両から見て前方を撮影するように車両に取り付けられており、レンズ21、撮像素子22、信号処理部23、メモリ24、D/A変換部25を備える。このナイトビジョンカメラ2においては、レンズ21から撮像素子22に入射した可視光および近赤外光が撮像素子22で受光され、撮像素子22は受光した可視光および近赤外光の強度の信号を信号処理部23に出力する。   The night vision camera 2 is a camera that receives visible light and near-infrared light, and outputs video signals of luminance and color components based on the received visible light and near-infrared light to the image recognition unit 8. The night vision camera 2 is attached to the vehicle so as to photograph the front as viewed from the vehicle, and includes a lens 21, an image sensor 22, a signal processing unit 23, a memory 24, and a D / A conversion unit 25. In the night vision camera 2, visible light and near-infrared light incident on the image pickup device 22 from the lens 21 are received by the image pickup device 22, and the image pickup device 22 receives signals of the intensity of the received visible light and near-infrared light. Output to the signal processing unit 23.

撮像素子22は、マトリックス状に配列された複数の画素を有している。画素の配列としては、本実施形態では、特許文献1と同様、赤領域の波長(R)および近赤外領域の波長(I)に感度を有するR+I画素、緑領域の波長(G)および近赤外領域の波長(I)に感度を有するG+I画素、青領域の波長(B)および近赤外領域の波長(I)に感度を有するB+I画素、および、近赤外領域の波長(I)のみに感度を有するI画素が、4個1組で矩形の頂点を構成するように並び、そのような組が複数個縦横に配列されるような構成を有しているが、他の配列構成を有していてもよい。   The image sensor 22 has a plurality of pixels arranged in a matrix. In this embodiment, as in the case of Patent Document 1, the pixel arrangement is an R + I pixel having sensitivity to the wavelength (R) in the red region and the wavelength (I) in the near infrared region, the wavelength (G) in the green region, and the near region. G + I pixel sensitive to wavelength (I) in infrared region, B + I pixel sensitive to wavelength (B) in blue region and wavelength (I) in near infrared region, and wavelength (I) in near infrared region The I pixels that are sensitive only to each other are arranged so as to form a rectangular vertex with a set of four, and a plurality of such sets are arranged vertically and horizontally. You may have.

信号処理部23(信号処理手段の一例に相当する)は、撮像素子22が受光した可視光および近赤外光の強度を一定周期(例えば1秒に60回)で取得し、取得する度に、取得した強度に基づいて、各画素の輝度および色成分を算出し、算出した各画素の輝度および色成分をD/A変換部25に出力する。輝度および色成分の算出の際には、メモリ24を作業領域として使用する。   The signal processing unit 23 (corresponding to an example of signal processing means) acquires the intensity of visible light and near-infrared light received by the image sensor 22 at a constant period (for example, 60 times per second), and each time it acquires it. Based on the acquired intensity, the luminance and color components of each pixel are calculated, and the calculated luminance and color components of each pixel are output to the D / A converter 25. When calculating luminance and color components, the memory 24 is used as a work area.

信号処理部23が各画素の輝度および色成分を算出する方法について、以下説明する。まず信号処理部23は、撮像素子22が受光した可視光(R、G、B)および近赤外光(I)の強度を撮像素子22から取得し、取得した強度に基づいて、画素毎に、Rの強度、Gの強度、Bの強度、およびIの強度を算出する。   A method by which the signal processing unit 23 calculates the luminance and color components of each pixel will be described below. First, the signal processing unit 23 acquires the intensities of visible light (R, G, B) and near-infrared light (I) received by the image sensor 22 from the image sensor 22 and, for each pixel, based on the acquired intensity. , R intensity, G intensity, B intensity, and I intensity are calculated.

より具体的には、各画素のIの強度の算出方法は、以下の通りである。I画素については、その画素で受けたIの強度をそのまま用い、他の画素については、複数個のI画素で受けたIの強度を用いて、当該他の画素におけるIの強度を補間計算で算出する。   More specifically, a method for calculating the intensity of I for each pixel is as follows. For the I pixel, the intensity of I received at the pixel is used as it is, and for the other pixels, the intensity of I received at a plurality of I pixels is used to calculate the I intensity at the other pixel by interpolation calculation. calculate.

また、各画素のRの強度の算出方法は、以下の通りである。R+I画素については、そのR+I画素で受けたRの強度とIの強度の和(R+I)から、上記のようにして算出した当該R+I画素のIの強度を減算した結果を用いる。また、他の画素については、複数個のR+I画素について算出したRの強度を用いて、当該他の画素におけるRの強度を補間計算で算出する。各画素のG、Bの強度の算出方法も、この方法でRをG、Bに置き換えた算出方法を用いればよい。   The calculation method of the R intensity of each pixel is as follows. For the R + I pixel, the result obtained by subtracting the I intensity of the R + I pixel calculated as described above from the sum of the R intensity and the I intensity (R + I) received at the R + I pixel is used. For other pixels, the R intensity calculated for a plurality of R + I pixels is used to calculate the R intensity of the other pixels by interpolation calculation. As a calculation method of the intensity of G and B of each pixel, a calculation method in which R is replaced with G and B by this method may be used.

各画素のRの強度(Rと記す)、Gの強度(Gと記す)、Bの強度(Bと記す)、およびIの強度を算出した後は、算出したそれら強度を用いて、各画素の輝度Yおよび色成分U、Vを算出する。算出式は、
(1) Y=0.2・R’+0.4・G’+0.1B’+0.3・α・I
(2) U=−0.15・(R/α)−0.35・(G/α)+0.5・(B/α)
(3) V=0.5・(R/α)−0.35・(G/α)−0.15・(B/α)
という3つの式を用いる。ただし、R’=R+I、G’=G+I、B’=B+Iである。このように、本実施形態の輝度および色成分は、YUV形式における輝度および色成分であるが、他の形式の輝度および色成分を採用してもよい。
After calculating the intensity of R (denoted as R), intensity of G (denoted as G), intensity of B (denoted as B), and intensity of I of each pixel, Luminance Y and color components U and V are calculated. The calculation formula is
(1) Y = 0.2 · R ′ + 0.4 · G ′ + 0.1B ′ + 0.3 · α · I
(2) U = −0.15 · (R / α) −0.35 · (G / α) + 0.5 · (B / α)
(3) V = 0.5 · (R / α) −0.35 · (G / α) −0.15 · (B / α)
These three expressions are used. However, R ′ = R + I, G ′ = G + I, and B ′ = B + I. As described above, the luminance and color components of the present embodiment are the luminance and color components in the YUV format, but other types of luminance and color components may be adopted.

なお、上記の式におけるIR係数αは、デフォルト値は1であるが、画像認識部8からの指令に従って変化するようなパラメータである。IR係数αが1の場合、輝度Yは、R、G、Bの強度から通常算出される輝度Yの値(すなわち、0.2・R+0.4・G+0.1・B)に、近赤外光の強度Iに比例して大きくなる増加量(1.0・I)を加えた値となっている。つまり、近赤外光を強く反射または放出している撮影対象ほど、その撮影対象を表す画素の輝度の通常からの増大量が、高くなっている。このようにすることで、夜間等の暗い環境でもユーザに見易い画像を提供することができる。   Note that the IR coefficient α in the above equation is a parameter that has a default value of 1 but changes according to a command from the image recognition unit 8. When the IR coefficient α is 1, the luminance Y is set to the value of the luminance Y that is normally calculated from the intensities of R, G, and B (that is, 0.2 · R + 0.4 · G + 0.1 · B). It is a value obtained by adding an increase amount (1.0 · I) that increases in proportion to the light intensity I. That is, the normal increase amount of the luminance of the pixel representing the imaging target is higher as the imaging target strongly reflects or emits near infrared light. By doing so, it is possible to provide an image that is easy for the user to see even in a dark environment such as at night.

また、各画素の色成分U、Vは、当該画素の近赤外光強度Iに無関係に決まるようになっているが、他の例としては、近赤外光強度Iを加味して色成分U、Vを補正してもよい。   The color components U and V of each pixel are determined independently of the near-infrared light intensity I of the pixel. However, as another example, the color components with the near-infrared light intensity I taken into account. U and V may be corrected.

D/A変換部25は、D/A変換部25が逐次算出して出力した各画素の輝度Y、色成分U、Vをアナログ信号に変換し、画像認識部8に出力する。   The D / A conversion unit 25 converts the luminance Y and color components U and V of each pixel sequentially calculated and output by the D / A conversion unit 25 into analog signals and outputs the analog signals to the image recognition unit 8.

また、撮像素子22は受光した可視光および近赤外光の強度の信号を信号処理部23のみならず、ナイトビジョンカメラ2の外部の画像認識部8に出力する。したがって、ナイトビジョンカメラ2から画像認識部8へは、信号処理部23が算出した各画素の輝度Yおよび色成分U、Vが出力されると共に、撮像素子22が受光した複数の画素の可視光および複数の画素の近赤外光の強度のデータ(以下、RAWデータという)も出力される。   Further, the image sensor 22 outputs the received visible light and near-infrared light intensity signals not only to the signal processing unit 23 but also to the image recognition unit 8 outside the night vision camera 2. Therefore, the luminance Y and the color components U and V of each pixel calculated by the signal processing unit 23 are output from the night vision camera 2 to the image recognition unit 8 and visible light of a plurality of pixels received by the image sensor 22 is output. In addition, near infrared light intensity data (hereinafter referred to as RAW data) of a plurality of pixels is also output.

画像認識部8(表示制御手段の一例に相当する)は、ナイトビジョンカメラ2とは別体で構成された装置であり、信号処理部23が算出、出力し、D/A変換部25がアナログ信号に変換した各画素の輝度Yおよび色成分U、Vに基づいた画像を逐次ディスプレイ9に表示させる。   The image recognition unit 8 (corresponding to an example of display control means) is a device that is configured separately from the night vision camera 2, and is calculated and output by the signal processing unit 23, and the D / A conversion unit 25 is analog. Images based on the luminance Y and the color components U and V of each pixel converted into signals are sequentially displayed on the display 9.

なお、画像認識部8および信号処理部23のそれぞれは、専用の回路構成を有する集積回路として構成されていてもよいし、プログラムを実行することで所望の処理を実現するマイクロコンピュータとして実現されていてもよい。   Each of the image recognition unit 8 and the signal processing unit 23 may be configured as an integrated circuit having a dedicated circuit configuration, or as a microcomputer that realizes desired processing by executing a program. May be.

ディスプレイ9は、車室内において、ドライバー等の乗員がディスプレイ9の表示画面を視認可能なように設置されている。したがって、乗員は、車両が移動しているときも、時々刻々と変化する車両の前方の風景が撮影された画像をディスプレイ9で見ることができる。   The display 9 is installed in the vehicle interior so that a passenger such as a driver can visually recognize the display screen of the display 9. Therefore, even when the vehicle is moving, the occupant can view on the display 9 an image of the scenery in front of the vehicle that changes every moment.

ナイトビジョンカメラ2の出力に基づいた画像をディスプレイ9に表示させるか否かは、例えば、車内のスイッチ(図示せず)に対する乗員の操作に応じて画像認識部8が決定する。   Whether or not to display an image based on the output of the night vision camera 2 on the display 9 is determined by the image recognition unit 8 in accordance with, for example, an occupant's operation on a switch (not shown) in the vehicle.

以下、夜間において車両が基準速度以上で走行中に、画像認識部8がナイトビジョンカメラ2の出力に基づいた画像をディスプレイ9に表示させている場合における、車両用撮影表示制御システム1の作動について説明する。この場合、画像認識部8はIR投光部7を作動させることで、IR投光部7が車両の前方に近赤外光を投射している。   Hereinafter, the operation of the vehicle photographing display control system 1 when the image recognition unit 8 displays an image based on the output of the night vision camera 2 on the display 9 while the vehicle is traveling at a reference speed or higher at night. explain. In this case, the image recognizing unit 8 operates the IR projector 7 so that the IR projector 7 projects near-infrared light in front of the vehicle.

このとき、画像認識部8は、D/A変換部25から出力された信号に基づく画像をディスプレイ9に表示させると共に、ナイトビジョンカメラ2から受けたRAWデータから、信号処理部23が行うのと同じ補間計算を用いた方法で、すべての画素について、画素毎に、Rの強度、Gの強度、Bの強度、およびIの強度を算出する。そして、この結果得た各画素のRの強度(単にRと記す)、Gの強度(単にGと記す)、Bの強度(単にBと記す)、およびI(単にIと記す)の強度に基づいて、近赤外光を強く反射または放出する被写体としてあらかじめ設定された被写体を画像認識によって探索し、探索の結果そのような被写体が見つかったか見つからなかったかに応じて、上述のIR係数αを切り替えるよう信号処理部23を制御する。   At this time, the image recognition unit 8 displays an image based on the signal output from the D / A conversion unit 25 on the display 9, and the signal processing unit 23 performs from the RAW data received from the night vision camera 2. With the method using the same interpolation calculation, the intensity of R, the intensity of G, the intensity of B, and the intensity of I are calculated for every pixel for every pixel. The resulting R intensity (simply referred to as R), G intensity (simply referred to as G), B intensity (simply referred to as B), and I (simply referred to as I) are obtained. Based on this, an object that is preset as a subject that strongly reflects or emits near-infrared light is searched by image recognition, and the IR coefficient α described above is determined depending on whether such a subject is found or not found as a result of the search. The signal processing unit 23 is controlled to be switched.

このような作動のため、画像認識部8は、図2に示す処理を実行する。この処理において画像認識部8は、まずステップ110で、ナイトビジョンカメラ2からRAWデータを取得し、取得したRAWデータから構成した撮影画像(上述のように算出した各画素のR、G、B、Iから成る)に対して、周知の画像認識技術(具体的にはパターンマッチング)を用いて、近赤外光を強く反射または放出する被写体(以下、IRの強い被写体ともいう)の探索を行う。このとき、パターンマッチングにおいて上記撮影画像と比較するために、IRの強い被写体の画像の特徴情報を用いるが、この特徴情報は、あらかじめ画像認識部8の記憶媒体(例えば、ROM、フラッシュメモリ)に記憶させてあるものを読み出して使用する。   Due to such an operation, the image recognition unit 8 executes the processing shown in FIG. In this processing, the image recognizing unit 8 first acquires RAW data from the night vision camera 2 in step 110, and takes a photographic image composed of the acquired RAW data (R, G, B, For a subject that strongly reflects or emits near-infrared light (hereinafter also referred to as a subject with a strong IR), using a known image recognition technique (specifically, pattern matching). . At this time, feature information of an image of a subject with strong IR is used for comparison with the above-described captured image in pattern matching. This feature information is stored in advance in a storage medium (for example, ROM, flash memory) of the image recognition unit 8. Read and use what is stored.

特徴情報をあらかじめ記憶させる被写体としては、各種道路標識、信号機、および、車両の前照灯(ヘッドライト)、ブレーキランプ、ウインカー等がある。道路標識は、IR投光部7から投射された近赤外光等の近赤外光を強く反射する傾向がある。信号機および車両の前照灯等は、自ら強い近赤外光を放出する傾向がある。   Examples of subjects that store characteristic information in advance include various road signs, traffic lights, vehicle headlamps, brake lamps, turn signals, and the like. The road sign tends to strongly reflect near infrared light such as near infrared light projected from the IR light projecting unit 7. Traffic lights and vehicle headlamps tend to emit strong near-infrared light.

各種道路標識の特徴情報は、その道路標識をあらかじめ正面から撮影した画像から作成してもよい。このようにして作成した特徴情報には、道路標識の形状の特徴のみならず、道路標識に記載された文字の特徴も含まれている。しかし、夜間においては、RAWデータから構成された撮影画像では標識内の文字が区別できない場合もあるので、各種道路標識の特徴情報は、その道路標識と形状は同じだが無地の物体を正面から撮影した画像から作成したものを用いてもよい。信号機、車両の前照灯、ブレーキランプ、ウインカーの特徴情報は、その信号機または前照灯をあらかじめ正面から撮影した画像から作成する。   The feature information of various road signs may be created from images obtained by photographing the road signs from the front in advance. The feature information created in this way includes not only the feature of the shape of the road sign but also the feature of the characters described on the road sign. However, at night, the characters in the signs may not be distinguished from the photographed image composed of RAW data, so the feature information of various road signs is the same as that road sign but a solid object is photographed from the front. You may use what was created from the done image. The characteristic information of the traffic light, the vehicle headlight, the brake lamp, and the blinker is created from an image obtained by photographing the traffic light or the headlight from the front in advance.

そして画像認識部8は、その探索の結果、IRの強い被写体がナイトビジョンカメラ2から受けたRAWデータによって構成される撮影画像中に見つかったか否かを判定し、見つからなかった場合は、ステップ120に進む。   Then, as a result of the search, the image recognition unit 8 determines whether or not a strong IR subject has been found in the captured image composed of the RAW data received from the night vision camera 2. Proceed to

そしてステップ120では、IR係数をデフォルト値である1に設定する指令をナイトビジョンカメラ2の信号処理部23に出力する。これにより、信号処理部23は、すべての画素について、IR係数αを1として上記式(1)、(2)、(3)を用いる方法(第1の方法の一例に相当する)で、撮像素子22が受光した可視光および近赤外光の強度に基づいて、各画素の輝度Yおよび色成分U、Vを算出し、画像認識部8は、続いてステップ130で、信号処理部23で算出されD/A変換部25でD/A変換された当該輝度Yおよび色成分U、Vの信号に基づき、画像をディスプレイ9に表示させる。   In step 120, a command for setting the IR coefficient to 1 which is a default value is output to the signal processing unit 23 of the night vision camera 2. As a result, the signal processing unit 23 captures images of all the pixels by a method (corresponding to an example of the first method) using the above equations (1), (2), and (3) with the IR coefficient α being 1. Based on the intensities of visible light and near-infrared light received by the element 22, the luminance Y and color components U and V of each pixel are calculated, and the image recognition unit 8 continues with step 130 in the signal processing unit 23. An image is displayed on the display 9 based on the signal of the luminance Y and the color components U and V calculated and D / A converted by the D / A converter 25.

続いてステップ140では、ナイトビジョンカメラ2の出力に基づいた画像をディスプレイ9に表示させる作動を終了するか否かを(例えば乗員の操作に基づいて)判定し、終了すると判定した場合は図2の処理を終了し、終了しないと判定した場合はステップ110に戻る。   Subsequently, in step 140, it is determined whether or not to end the operation of displaying an image based on the output of the night vision camera 2 on the display 9 (for example, based on the operation of the occupant). If it is determined that the process is not completed, the process returns to step 110.

このように、RAWデータから構成される撮影画像中にIRの強い被写体が見つからない間は、ステップ110、120、130、140の処理がこの順に繰り返されることで、信号処理部23によって、IR係数αを1として上記式(1)、(2)、(3)を用いる方法で算出された各画素の輝度Yおよび色成分U、Vに基づくディスプレイ9の画像表示が継続する。   As described above, while a subject with strong IR is not found in the captured image composed of the RAW data, the processing of steps 110, 120, 130, and 140 is repeated in this order. Image display on the display 9 based on the luminance Y and the color components U and V of each pixel calculated by the method using the above formulas (1), (2), and (3) with α being 1 continues.

そして、図3に示すように、道路標識51、53、信号機52、車両の前照灯54、車両のブレーキランプ55、車両のウインカー56等のIRの強い被写体がナイトビジョンカメラ2の撮影範囲内に入って来ると、画像認識部8は、ステップ130で、探索の結果、IRの強い被写体が見つかり、その結果、処理をステップ125に進める。   Then, as shown in FIG. 3, road signs 51 and 53, a traffic light 52, a vehicle headlamp 54, a vehicle brake lamp 55, a vehicle turn signal 56, and other strong IR subjects are within the shooting range of the night vision camera 2. When entering, the image recognition unit 8 finds a subject with strong IR as a result of the search in step 130, and as a result, advances the process to step 125.

ステップ125では、IR係数を制限値である0.02に設定する指令をナイトビジョンカメラ2の信号処理部23に出力する。これにより、信号処理部23は、すべての画素について、IR係数αを0.02として上記式(1)、(2)、(3)を用いる方法(第2の方法の一例に相当する)で、撮像素子22が受光した可視光および近赤外光の強度に基づいて、各画素の輝度Yおよび色成分U、Vを算出し、画像認識部8は、続いてステップ130で、信号処理部23で算出されD/A変換部25でD/A変換された当該輝度Yおよび色成分U、Vの信号に基づき、画像をディスプレイ9に表示させる。   In step 125, a command for setting the IR coefficient to 0.02 which is the limit value is output to the signal processing unit 23 of the night vision camera 2. Thereby, the signal processing unit 23 uses a method (corresponding to an example of the second method) using the above equations (1), (2), and (3) with an IR coefficient α of 0.02 for all pixels. The luminance Y and the color components U and V of each pixel are calculated based on the intensities of the visible light and near infrared light received by the image sensor 22, and the image recognition unit 8 subsequently proceeds to step 130 in the signal processing unit. The image is displayed on the display 9 based on the luminance Y and the color components U and V signals calculated at 23 and D / A converted by the D / A converter 25.

ここで、IR係数αをデフォルト値の1として輝度等を計算する場合と、IR係数を制限値の0.02として輝度等を計算する場合の違いについて、図4、図5を用いて説明する。   Here, the difference between the case where the brightness etc. is calculated with the IR coefficient α as the default value 1 and the case where the brightness etc. is calculated with the IR coefficient as the limit value 0.02 will be described with reference to FIGS. .

輝度Yの計算式(1)においては、IR係数αを0.02とした場合は、IR係数αを1とした場合に比べ、輝度に対する近赤外光の強度の寄与が低くなるようになっている。つまり、R、G、Bの強度から通常算出される輝度Yの値(すなわち、0.2・R+0.4・G+0.1・B)に対する、近赤外光の強度Iに比例して大きくなる増加量(すなわち、(0.7+0.3・α)・I)は、αが0.02の場合の方が1の場合よりも小さい。   In the calculation formula (1) for the luminance Y, when the IR coefficient α is 0.02, the contribution of the intensity of near-infrared light to the luminance is lower than when the IR coefficient α is 1. ing. That is, it increases in proportion to the intensity I of near-infrared light with respect to the value of luminance Y normally calculated from the intensities of R, G, and B (that is, 0.2 · R + 0.4 · G + 0.1 · B). The amount of increase (ie, (0.7 + 0.3 · α) · I) is smaller when α is 0.02 than when it is 1.

また、色成分Uの計算式(2)および色成分Vの計算式(3)においては、αの値が大きいほど、同じR、G、Bの値に対してU、Vの絶対値が大きくなるようになっている。したがって、αが0.02の場合はαが1の場合に比べて、同じ可視光強度R、G、Bに対して、各画素の色成分U、Vの絶対値が大きくなる。   In addition, in the calculation formula (2) for the color component U and the calculation formula (3) for the color component V, as the value of α increases, the absolute values of U and V increase with respect to the same R, G, and B values. It is supposed to be. Therefore, when α is 0.02, the absolute values of the color components U and V of each pixel are larger for the same visible light intensity R, G, and B than when α is 1.

例えば、一時停止の道路標識上の画素について、R’、G’、B’、Iの各強度が、R’=255、G’=250、B’=250、I=245で、IR係数αが1の場合を仮定する。なお、R、G、B、R’、G’、B’、I、Y、U、Vが取り得る値の範囲は、0から255までであるとする。この場合、R、G、B値は、R=10、G=5、B=5、I=245となり、これをα=1として上記式(1)、(2)、(3)に適用すると、輝度Y=249.5、色成分U=−0.75、色成分V=2.5となり、色は、ほとんど表示されず、図4に示すように、一時停止の道路標識は、ディスプレイ9上で、逆三角形の真っ白な形状のみが表示されることになる。   For example, with respect to pixels on a temporary stop road sign, the intensity of R ′, G ′, B ′, I is R ′ = 255, G ′ = 250, B ′ = 250, I = 245, and the IR coefficient α Is assumed to be 1. Note that the range of values that R, G, B, R ′, G ′, B ′, I, Y, U, and V can take is 0 to 255. In this case, the R, G, and B values are R = 10, G = 5, B = 5, and I = 245, and when this is applied to the above equations (1), (2), and (3) with α = 1. , Luminance Y = 249.5, color component U = −0.75, color component V = 2.5, and almost no color is displayed. As shown in FIG. Above, only the white shape of the inverted triangle will be displayed.

一方、同じ画素についてα=0.02として上記式(1)、(2)、(3)に適用すると、輝度Y=117.47、色成分U=−37.5、色成分V=125となり、図4に示すように、輝度Yが下がり、かつ赤色が強調されたことにより、道路標識内の文字「止まれ」がディスプレイ9上で見えるようになる。   On the other hand, when α = 0.02 for the same pixel and applied to the above equations (1), (2), (3), luminance Y = 117.47, color component U = -37.5, and color component V = 125. As shown in FIG. 4, the luminance “Y” decreases and the red color is emphasized, so that the character “stop” in the road sign becomes visible on the display 9.

このように、ナイトビジョンカメラ2の撮影画像中にIRの強い被写体が見つかっている間は、ステップ110、125、130、140の処理がこの順に繰り返されることで、信号処理部23は、IR係数αを0.02として上記式(1)、(2)、(3)を用いる方法で算出された各画素の輝度Yおよび色成分U、Vに基づくディスプレイ9の画像表示が継続する。   As described above, while a strong IR subject is found in the captured image of the night vision camera 2, the processing of steps 110, 125, 130, and 140 is repeated in this order, so that the signal processing unit 23 has the IR coefficient. The image display on the display 9 continues based on the luminance Y and the color components U and V of each pixel calculated by the method using the above formulas (1), (2), and (3) with α set to 0.02.

以上説明した通り、近赤外光を強く反射または放出する被写体をあらかじめ設定しておき、そのような被写体が画像認識が見つかった場合と見つからなかった場合とで、輝度の計算方法を変えることで、車両の走行シーンに応じた適切な切り替えを行えるようにすることができる。そして、近赤外光を強く反射または放出する被写体が見つかった場合は、輝度計算の際に近赤外高強度の寄与を低くするので、そのユーザは、ディスプレイ9上で、その被写体が明るすぎて見づらくなってしまう可能性が低下する。   As described above, a subject that strongly reflects or emits near-infrared light is set in advance, and the luminance calculation method is changed depending on whether such a subject is found or not. Thus, it is possible to perform appropriate switching according to the traveling scene of the vehicle. If a subject that strongly reflects or emits near-infrared light is found, the contribution of the near-infrared high intensity is reduced in the luminance calculation, so that the user is too bright on the display 9. The possibility of becoming difficult to see decreases.

また、探索の結果近赤外光を強く反射または放出する被写体が見つからなかった場合に比べて見つかった場合は、同じ可視光強度に対して、各画素の色成分の絶対値を大きくするこのようにすることで、そのユーザは、ディスプレイ(9)上で、その被写体の色をよりはっきりと確認することができる。例えば、その被写体の内部の文字等の確認も容易になる。   In addition, if a subject that strongly reflects or emits near infrared light is not found as a result of the search, the absolute value of the color component of each pixel is increased for the same visible light intensity. By doing so, the user can confirm the color of the subject more clearly on the display (9). For example, it is easy to check characters inside the subject.

なお、IRの強い被写体を探索するのに、RAWデータから構成される撮影画像を用いるのは、その撮影画像は、R、G、B、Iの強度から輝度Y、色成分U、Vへの変換(式(1)、(2)、(3)を用いた変換)が行われる前のデータなので、変換によって輝度が飽和してしまった結果、画像認識が困難になる等の障害が発生する可能性が低いからである。   In order to search for a subject with strong IR, a photographed image composed of RAW data is used because the photographed image is converted from the intensity of R, G, B, I to luminance Y, color components U, V. Since the data has not yet undergone conversion (conversion using equations (1), (2), and (3)), the luminance is saturated by the conversion, resulting in problems such as difficulty in image recognition. This is because the possibility is low.

また、近赤外光を強く反射または放出する被写体として道路標識をあらかじめ設定しておくことで、車両の走行時に、道路標識が明るすぎて見づらくなってしまう可能性が低下する。   In addition, by setting a road sign in advance as a subject that strongly reflects or emits near-infrared light, the possibility that the road sign becomes too bright and difficult to see when the vehicle is traveling is reduced.

また、近赤外光を強く反射または放出する被写体として信号機または車両の前照灯、ブレーキランプ、ウインカー等をあらかじめ設定しておくことで、車両の走行時に、信号機または前照灯またはブレーキランプまたはウインカーのハレーション(色信号が飽和して白飛びすること)を低減することができる。   In addition, traffic lights, vehicle headlights, brake lamps, turn signals, etc. are set in advance as subjects that strongly reflect or emit near-infrared light, so that traffic lights, headlights, brake lights, It is possible to reduce blinker halation (saturation of the color signal and whiteout).

(他の実施形態)
以上、本発明の実施形態について説明したが、本発明の範囲は、上記実施形態のみに限定されるものではなく、本発明の各発明特定事項の機能を実現し得る種々の形態を包含するものである。例えば、以下のような形態も許容される。
(Other embodiments)
As mentioned above, although embodiment of this invention was described, the scope of the present invention is not limited only to the said embodiment, The various form which can implement | achieve the function of each invention specific matter of this invention is included. It is. For example, the following forms are also acceptable.

(a)上記実施形態では、画像認識部8は、図2のステップ125で、すべての画素について、IR係数αを0.02として上記式(1)、(2)、(3)を用いる方法で、撮像素子22が受光した可視光および近赤外光の強度に基づいて、各画素の輝度Yおよび色成分U、Vを算出するよう指令を出力している。   (A) In the above embodiment, the image recognizing unit 8 uses the above formulas (1), (2), and (3) in step 125 in FIG. Thus, a command is output to calculate the luminance Y and the color components U and V of each pixel based on the intensities of visible light and near infrared light received by the image sensor 22.

しかし、必ずしもこのようになっておらずともよく、画像認識部8は、図2のステップ125で、全画素のうち、見つかったIRが強い被写体が写った画素を含む部分(例えば、見つかったIRが強い被写体が写った画素のみから成る部分、見つかったIRが強い被写体が写った画素およびその近傍のみから成る部分)を対象とし、その対象の画素について、IR係数αを0.02として上記式(1)、(2)、(3)を用いる方法で、撮像素子22が受光した可視光および近赤外光の強度に基づいて、各画素の輝度Yおよび色成分U、Vを算出し、その対象以外の画素について、IR係数αをデフォルトの1として上記式(1)、(2)、(3)を用いる方法で、撮像素子22が受光した可視光および近赤外光の強度に基づいて、各画素の輝度Yおよび色成分U、Vを算出するよう指令を出力するようになっていてもよい。   However, this need not always be the case, and the image recognizing unit 8 may include a portion (for example, a found IR) including a pixel in which a subject with a strong IR found is captured in step 125 of FIG. (A portion consisting only of pixels in which a strong subject is captured, a portion including only pixels found in a subject having a strong IR and its vicinity), and the IR coefficient α is set to 0.02 for the target pixel. Based on the intensity of visible light and near-infrared light received by the image sensor 22 by the method using (1), (2), and (3), the luminance Y and color components U and V of each pixel are calculated, Based on the intensities of visible light and near-infrared light received by the image sensor 22 by using the above formulas (1), (2), and (3) with the IR coefficient α as default 1 for the pixels other than the target pixel. The brightness of each pixel A command may be output so as to calculate the degree Y and the color components U and V.

このようにすることで、夜間において、ナイトビジョンカメラ2に基づく画像の視認性を向上しつつ、IRの強い被写体についても明るすぎて却って見え難くなってしまう可能性も低減することができる。   By doing so, it is possible to improve the visibility of the image based on the night vision camera 2 at night and also reduce the possibility that a subject with strong IR will be too bright and difficult to see.

(b)また、上記実施形態では、画像認識部8は、RAWデータから構成される撮影画像内にIRの強い被写体があるときには、常にナイトビジョンカメラ2の信号処理部23に対して全画素についてIR係数を制限値にするよう指令を出力しているが、必ずしもこのようになっておらずともよい。   (B) In the above embodiment, the image recognizing unit 8 always applies to all the pixels to the signal processing unit 23 of the night vision camera 2 when there is a subject with strong IR in the captured image composed of the RAW data. Although the command is output to set the IR coefficient to the limit value, this need not always be the case.

例えば、画像認識部8は、画像認識によってIRの強い被写体として1つの被写体のみを見つけ、その1つの被写体がRAWデータから構成される撮影画像中に占める画素数を算出し、算出した画素数が所定の閾値以上であれば、IRの強い被写体が見つからなかった場合と同じように、全画素についてIR係数をデフォルト値にするよう信号処理部23に指令してもよい。   For example, the image recognition unit 8 finds only one subject as a subject with strong IR by image recognition, calculates the number of pixels that the one subject occupies in the captured image composed of RAW data, and the calculated number of pixels is If the threshold value is equal to or greater than the predetermined threshold, the signal processing unit 23 may be instructed to set the IR coefficient to the default value for all pixels, as in the case where a subject with strong IR is not found.

このようにすることで、車両の走行中に前方からIRの強い被写体が近づいて来て、画像認識によってそのIRの強い被写体(ここでは道路標識とする)がRAWデータから構成される撮影画像中で見つかった後、当該被写体についてはIR係数を制限値として計算した輝度および色成分でディスプレイ9の表示が行われるが、当該被写体が更に車両に近づいて、画素数が上記閾値以上となった段階で、全画素のIR係数がデフォルト値に戻る。   By doing in this way, a subject with strong IR approaches from the front while the vehicle is traveling, and the subject with strong IR (here, a road sign) is captured in RAW data by image recognition. After that, the display 9 is displayed with the luminance and color components calculated using the IR coefficient as the limit value for the subject, but the subject further approaches the vehicle and the number of pixels is equal to or greater than the threshold value. Thus, the IR coefficients of all the pixels return to the default values.

これは、IR投光部7によって近赤外光が投光される位置が、車両からある程度前方に離れた部分であり、車両の近傍にはIR投光部7からの光が当たらないため、当該道路標識が近赤外光を強く反射しない可能性があるから、そのような道路標識のためにIR係数を低くするよりは、全体の視認性を向上させた方がよい可能性が高いからである。   This is because the position where the near infrared light is projected by the IR projector 7 is a part far away from the vehicle to some extent, and the light from the IR projector 7 does not hit the vicinity of the vehicle. Since the road sign may not reflect near infrared light strongly, it is more likely to improve the overall visibility than to lower the IR coefficient for such a road sign. It is.

したがって、上記閾値は、近赤外光を強く反射または放出する被写体としてあらかじめ設定された被写体毎に、IR投光部7が当たらなくなるときにナイトビジョンカメラ2から見える大きさに応じて、それぞれ異なる値が設定されるようになっていてもよいし、大まかに同じ値が設定されるようになっていてもよい。   Therefore, the threshold value differs depending on the size that can be seen from the night vision camera 2 when the IR light projecting unit 7 is not applied to each subject that is preset as a subject that strongly reflects or emits near infrared light. A value may be set, or roughly the same value may be set.

(c)また、上記実施形態では、IR係数の値として、デフォルト値が1で、制限値が0.02となっているが、このような値に限らず、制限値がデフォルト値より小さい正数となっていればよい。   (C) In the above embodiment, as the IR coefficient value, the default value is 1 and the limit value is 0.02. However, the present invention is not limited to this value, and the limit value is a positive value smaller than the default value. It only has to be a number.

(d)また、上記実施形態では、RAWデータから構成される撮影画像からパターン認識によって見つけたIRの強い被写体が、道路標識であっても、信号機であっても、前照灯であっても、ブレーキランプであっても、ウインカーであっても、信号処理部23に指令する制限値は同じ0.02となっている。しかし、見つけたIRの強い被写体の種類に応じて、信号処理部23に指令する制限値を変化させてもよい。   (D) In the above embodiment, a subject with strong IR found by pattern recognition from a captured image composed of RAW data may be a road sign, a traffic light, or a headlamp. The limit value commanded to the signal processing unit 23 is 0.02 which is the same whether it is a brake lamp or a blinker. However, the limit value commanded to the signal processing unit 23 may be changed according to the type of the subject with the strong IR found.

例えば、IRの強い被写体を1つだけ見つけ、その見つけた被写体が道路標識である場合は、IR係数の値として、第1の制限値(例えば0.02)を信号処理部23に指令し、また、その見つけた被写体が信号機、前照灯、ブレーキランプ、およびウインカーのいずれかである場合は、IR係数の値として、第1の制限値よりも大きくデフォルト値よりも小さい第2の制限値(例えば0.1)を信号処理部23に指令するようになっていてもよい。このようにするのは、信号機および前照灯は、その中の文字を読み取りたいわけではなく、ディスプレイ9の表示における信号機および前照灯の膨張を防ぐ程度に輝度を抑えればよいからである。   For example, when only one subject with strong IR is found and the found subject is a road sign, the first limit value (for example, 0.02) is commanded to the signal processing unit 23 as the value of the IR coefficient, If the found subject is any one of a traffic light, a headlamp, a brake lamp, and a turn signal, the IR coefficient value is a second limit value that is greater than the first limit value and smaller than the default value. (For example, 0.1) may be instructed to the signal processing unit 23. This is because the traffic light and the headlight do not want to read the characters in the traffic light and the headlight, and the brightness should be suppressed to such an extent that the traffic light and the headlight are prevented from expanding in the display 9. .

また例えば、IRの強い被写体を撮影画像内で1つだけ見つけ、その見つけた被写体が信号機である場合、前照灯である場合、ブレーキランプである場合、ウインカーである場合のそれぞれで、IR係数の値として、異なる値を信号処理部23に指令するようになっていてもよい。   Further, for example, only one subject having a strong IR is found in the photographed image, and when the found subject is a traffic light, a headlamp, a brake lamp, or a blinker, the IR coefficient A different value may be commanded to the signal processing unit 23 as the value of.

(e)また、上記実施形態では、パターンマッチングによって前照灯と信号機とを区別して認識するようになっているが、RAWデータから構成される撮影画像のRの強度、Gの強度、Bの強度に基づいて、前照灯と信号機とを区別するようになっていてもよい。具体的には、パターンマッチングによって前照灯または信号機である被写体を見つけ、見つけた被写体のR/G(Rの強度をGの強度で除算した値)およびB/G(Bの強度をGの強度で除算した値)を算出し、R/G、B/Gのいずれかが閾値を超えたら信号機と判定する。   (E) In the above embodiment, the headlamp and the traffic light are distinguished and recognized by pattern matching. However, the intensity of R, G, Based on the intensity, the headlamp and the traffic light may be distinguished. Specifically, a subject that is a headlight or a traffic light is found by pattern matching, and the found subject's R / G (the value obtained by dividing the intensity of R by the intensity of G) and B / G (the intensity of B is the value of G (Value divided by intensity) is calculated, and if any of R / G and B / G exceeds the threshold, it is determined as a traffic light.

具体的には、赤信号の場合、例えば、R、G、Bそれぞれの強度が、R=100、G=20、B=20になり、この時、ホワイトバランス制御の参照値R/G、B/Gはそれぞれ、R/G=5、B/G=1となる。   Specifically, in the case of a red signal, for example, the intensities of R, G, and B are R = 100, G = 20, and B = 20. At this time, reference values R / G, B for white balance control / G is R / G = 5 and B / G = 1, respectively.

また、緑信号の場合、例えば、R、G、Bそれぞれの強度が、R=20、G=100、B=20になり、この時、ホワイトバランス制御の参照値R/G、B/Gはそれぞれ、R/G=0.2、B/G=0.2となる。   In the case of a green signal, for example, the intensities of R, G, and B are R = 20, G = 100, and B = 20. At this time, the reference values R / G and B / G for white balance control are R / G = 0.2 and B / G = 0.2, respectively.

一方、前照灯の場合、例えば、R、G、Bそれぞれの強度が、R=100、G=100、B=100となる。この時、ホワイトバランス制御の参照値R/G、B/Gはそれぞれ、R/G=1、B/G=1となる。   On the other hand, in the case of a headlamp, for example, the intensities of R, G, and B are R = 100, G = 100, and B = 100. At this time, the reference values R / G and B / G for white balance control are R / G = 1 and B / G = 1, respectively.

従って、R/G、B/Gの値が共に1付近(例えば、0.9以上1.1以下)の場合は、着色しない光源(前照灯)が光っている場合であり、R/G、B/Gどちらかが1より非常に大きい場合(例えば、閾値3以上)は、赤、または青に着色した光源(信号機)が光っている場合であり、R/G、B/Gが共に1より非常に小さい場合(閾値として例えば0.3以下)の場合は、緑に着色した光源(信号機)が光っている場合であると判定できる。
(f)また、上記実施形態では、信号処理部23はナイトビジョンカメラ2の一部としてナイトビジョンカメラ2内に組み込まれており、画像認識部8はナイトビジョンカメラ2とは別体の部品として構成されている。しかし、かならずしもこのようになっておらずともよく、例えば、信号処理部23の機能は画像認識部8に組み込まれていてもよい。
Therefore, when the values of R / G and B / G are both near 1 (for example, 0.9 or more and 1.1 or less), the light source (headlight) that is not colored is shining, and R / G , B / G is much larger than 1 (for example, threshold 3 or more), the light source (signal) colored red or blue is shining, and both R / G and B / G are If it is much smaller than 1 (for example, 0.3 or less as a threshold), it can be determined that the light source (signal) colored green is shining.
(F) In the above embodiment, the signal processing unit 23 is incorporated in the night vision camera 2 as a part of the night vision camera 2, and the image recognition unit 8 is a separate component from the night vision camera 2. It is configured. However, this need not always be the case. For example, the function of the signal processing unit 23 may be incorporated in the image recognition unit 8.

1 車両用撮影表示制御システム
2 ナイトビジョンカメラ
7 IR投光部
8 画像認識部
9 ディスプレイ
21 レンズ
22 撮像素子
23 信号処理部
24 メモリ
25 D/A変換部
51〜56 IRの強い被写体
DESCRIPTION OF SYMBOLS 1 Vehicle imaging | photography display control system 2 Night vision camera 7 IR light projection part 8 Image recognition part 9 Display 21 Lens 22 Image pick-up element 23 Signal processing part 24 Memory 25 D / A conversion part 51-56 IR strong subject

Claims (5)

可視光および近赤外光を受光する撮像素子(22)および前記撮像素子(22)が受光した可視光および近赤外光の強度に基づいて各画素の輝度を算出する信号処理手段(23)を有し、前記信号処理手段(23)が算出した各画素の輝度を出力すると共に、前記撮像素子(22)が受光した可視光および近赤外光の強度を出力するカメラ(2)と、
前記カメラ(2)が出力した前記各画素の輝度に基づいた画像をディスプレイ(9)に表示させる表示制御手段(8)と、を備え、
前記表示制御手段(8)は、前記カメラ(2)が出力した前記可視光および近赤外光の強度に基づいて、近赤外光を強く反射または放出する被写体としてあらかじめ設定された被写体を画像認識によって探索し、探索の結果近赤外光を強く反射または放出する被写体が見つからなかった場合は、前記撮像素子(22)が受光した可視光および近赤外光の強度に基づいて、第1の算出方法で各画素の輝度を算出し、探索の結果近赤外光を強く反射または放出する被写体が見つかった場合は、前記撮像素子(22)が受光した可視光および近赤外光の強度に基づいて、前記第1の方法よりも輝度に対する近赤外光の強度の寄与が低くなるような第2の算出方法で、各画素の輝度を算出するよう、前記信号処理手段(23)を制御することを特徴とする車両用撮影表示制御システム。
An image sensor (22) that receives visible light and near infrared light, and a signal processing means (23) that calculates the luminance of each pixel based on the intensity of visible light and near infrared light received by the image sensor (22). A camera (2) that outputs the luminance of each pixel calculated by the signal processing means (23) and outputs the intensity of visible light and near-infrared light received by the imaging device (22);
Display control means (8) for causing the display (9) to display an image based on the luminance of each pixel output by the camera (2),
The display control means (8) images a subject set in advance as a subject that strongly reflects or emits near infrared light based on the intensities of the visible light and near infrared light output from the camera (2). If a subject that strongly reflects or emits near-infrared light is not found as a result of the search, a first search is performed based on the intensities of visible light and near-infrared light received by the image sensor (22). If the subject that strongly reflects or emits near-infrared light is found as a result of the search, the intensity of visible light and near-infrared light received by the image sensor (22) is calculated. The signal processing means (23) is configured to calculate the luminance of each pixel by a second calculation method in which the contribution of the intensity of near infrared light to the luminance is lower than that of the first method. Characterized by controlling Vehicle for taking a picture display control system that.
前記あらかじめ設定された被写体は、道路標識を含むことを特徴とする請求項1に記載の車両用撮影表示制御システム。   The vehicle photographing display control system according to claim 1, wherein the preset subject includes a road sign. 前記あらかじめ設定された被写体は、信号機、車両の前照灯、ブレーキランプ、およびウインカーのうち少なくとも1つをを含むことを特徴とする請求項1または2に記載の車両用撮影表示制御システム。   The vehicle photographing display control system according to claim 1 or 2, wherein the preset subject includes at least one of a traffic light, a vehicle headlamp, a brake lamp, and a winker. 前記信号処理手段(23)は更に、前記撮像素子(22)が受光した可視光の強度に基づいて各画素の色成分を算出し、
前記表示制御手段(8)は、前記信号処理手段(23)が算出した前記各画素の輝度および色成分に基づいた画像をディスプレイ(9)に表示させ、
更に前記表示制御手段(8)は、前記カメラ(2)から受けた前記映像信号に基づいて、近赤外光を強く反射または放出する被写体を画像認識によって探索し、探索の結果近赤外光を強く反射または放出する被写体が見つからなかった場合に比べて見つかった場合は、同じ可視光強度に対して、各画素の色成分の絶対値を大きくすることを特徴とする請求項1いし3のいずれか1つに記載の車両用撮影表示制御システム。
The signal processing means (23) further calculates a color component of each pixel based on the intensity of visible light received by the image sensor (22),
The display control means (8) causes the display (9) to display an image based on the luminance and color components of the pixels calculated by the signal processing means (23),
Further, the display control means (8) searches for a subject that strongly reflects or emits near-infrared light by image recognition based on the video signal received from the camera (2), and the result of the search is near-infrared light. The absolute value of the color component of each pixel is increased for the same visible light intensity when an object that strongly reflects or emits light is not found. The imaging | photography display control system for vehicles as described in any one.
当該車両用撮影表示制御システムが搭載される車両には、前記車両の前方に近赤外光を投射するIR投光部(7)があり、
前記表示制御手段(8)は、探索の結果近赤外光を強く反射または放出する被写体が見つかった場合でも、その見つかった被写体の画素数が閾値以上である場合は、前記第1の方法で、各画素の輝度を算出するよう、前記信号処理手段(23)を制御することを特徴とする請求項1ないし4のいずれか1つに記載の車両用撮影表示制御システム。
The vehicle equipped with the vehicle image display control system has an IR projector (7) that projects near-infrared light in front of the vehicle,
Even when a subject that strongly reflects or emits near-infrared light is found as a result of the search, the display control means (8) uses the first method if the number of pixels of the found subject is equal to or greater than a threshold value. The vehicle image display control system according to any one of claims 1 to 4, wherein the signal processing means (23) is controlled so as to calculate the luminance of each pixel.
JP2011138678A 2011-06-22 2011-06-22 Vehicle photographing display control system Pending JP2013009041A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011138678A JP2013009041A (en) 2011-06-22 2011-06-22 Vehicle photographing display control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011138678A JP2013009041A (en) 2011-06-22 2011-06-22 Vehicle photographing display control system

Publications (1)

Publication Number Publication Date
JP2013009041A true JP2013009041A (en) 2013-01-10

Family

ID=47676061

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011138678A Pending JP2013009041A (en) 2011-06-22 2011-06-22 Vehicle photographing display control system

Country Status (1)

Country Link
JP (1) JP2013009041A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160091331A (en) * 2013-11-25 2016-08-02 르노 에스.아.에스. System and method for forming nighttime images for a motor vehicle
KR101874298B1 (en) * 2010-06-11 2018-07-06 필킹톤 그룹 리미티드 Apparatus for evaluating fit of a modular assembly into a body opening and method of using same
CN112513676A (en) * 2018-09-18 2021-03-16 松下知识产权经营株式会社 Depth acquisition device, depth acquisition method, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007202108A (en) * 2005-12-27 2007-08-09 Sanyo Electric Co Ltd Imaging apparatus
JP2007288657A (en) * 2006-04-19 2007-11-01 Toyota Motor Corp Display device for vehicle and display method for display device for vehicle
JP2009071789A (en) * 2007-09-18 2009-04-02 Denso Corp Vehicle periphery monitoring system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007202108A (en) * 2005-12-27 2007-08-09 Sanyo Electric Co Ltd Imaging apparatus
JP2007288657A (en) * 2006-04-19 2007-11-01 Toyota Motor Corp Display device for vehicle and display method for display device for vehicle
JP2009071789A (en) * 2007-09-18 2009-04-02 Denso Corp Vehicle periphery monitoring system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101874298B1 (en) * 2010-06-11 2018-07-06 필킹톤 그룹 리미티드 Apparatus for evaluating fit of a modular assembly into a body opening and method of using same
KR20160091331A (en) * 2013-11-25 2016-08-02 르노 에스.아.에스. System and method for forming nighttime images for a motor vehicle
KR102155374B1 (en) 2013-11-25 2020-09-11 르노 에스.아.에스. System and method for forming nighttime images for a motor vehicle
CN112513676A (en) * 2018-09-18 2021-03-16 松下知识产权经营株式会社 Depth acquisition device, depth acquisition method, and program

Similar Documents

Publication Publication Date Title
JP7296350B2 (en) Video stream image processing system and method for flicker correction of amplitude modulated light
CN105960355B (en) Method for operating a motor vehicle rear view camera system after detection of a flash of headlights, rear view camera system and motor vehicle
US10348975B2 (en) Light system for a motor vehicle
JP5948170B2 (en) Information display device, information display method, and program
US10735667B1 (en) Vehicle surroundings monitoring apparatus
US10455159B2 (en) Imaging setting changing apparatus, imaging system, and imaging setting changing method
JP4927647B2 (en) Vehicle periphery monitoring device
JP5712821B2 (en) Shooting display control system
CN105034929B (en) Irradiation apparatus
JP6533050B2 (en) In-vehicle camera system
JP5179428B2 (en) Vehicle periphery monitoring device
JP2013009041A (en) Vehicle photographing display control system
JP6168024B2 (en) Captured image display device, captured image display method, and captured image display program
JP4731177B2 (en) Infrared imaging display device and infrared imaging display method for vehicle
JP4782491B2 (en) Imaging device
JP2020147251A (en) Light monitoring device
WO2013157250A1 (en) Image processing device and driving assisting method
JP2019197948A (en) Imaging device and method for controlling the same
JP6866212B2 (en) Display control device, display control method and camera monitoring system
JP6327388B2 (en) Captured image display device, captured image display method, and captured image display program
JP2011160117A (en) Image processor and image processing method
JP6311826B2 (en) Captured image display device, captured image display method, and captured image display program
JP2020036165A (en) Image display device, image display system
JP7176208B2 (en) System and imager
JP2018074440A (en) Vehicle rear image display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140326

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150217

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150623