JP3232502B2 - Fog monitoring system - Google Patents
Fog monitoring systemInfo
- Publication number
- JP3232502B2 JP3232502B2 JP14907396A JP14907396A JP3232502B2 JP 3232502 B2 JP3232502 B2 JP 3232502B2 JP 14907396 A JP14907396 A JP 14907396A JP 14907396 A JP14907396 A JP 14907396A JP 3232502 B2 JP3232502 B2 JP 3232502B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- fog
- correlation value
- calculating
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Road Signs Or Road Markings (AREA)
- Investigating Or Analysing Materials By Optical Means (AREA)
- Emergency Alarm Devices (AREA)
- Image Analysis (AREA)
Description
【0001】[0001]
【発明の属する技術分野】本発明は、霧監視システムに
係り、特に、道路などにおいて霧が発生したことを検出
するに好適な霧監視システムに関する。The present invention relates to a fog monitoring system and, more particularly, to a fog monitoring system suitable for detecting the occurrence of fog on a road or the like.
【0002】[0002]
【従来の技術】従来、霧の発生を検出するに際して、監
視対象領域内の2地点に透過率計を設置し、各透過率計
の計測値によって霧の発生を検出したり、あるいは道路
設置物をテレビカメラで撮影し、撮影して得られた映像
から道路設置物を識別し、このの識別程度によって霧の
発生を判断したりする方法が採用されている。2. Description of the Related Art Conventionally, when detecting the occurrence of fog, transmittance meters are installed at two points in a monitoring target area, and the occurrence of fog is detected based on the measured value of each transmittance meter, or a road installation object is detected. Is photographed with a television camera, road-installed objects are identified from images obtained by photographing, and the occurrence of fog is determined based on the degree of identification.
【0003】しかし、霧の発生を監視するのに、透過率
計を用いる方法では、監視地点に透過率計を配置しなけ
ればならず、専用の設備が必要になるとともに設置場所
に制約を受けることがある。またテレビカメラで道路設
置物を撮影し、撮影して得られた道路設置物の映像を識
別する方法では、監視員の負担が多く、また監視員が常
にモニタ画面を見ていなければ霧が発生してか否かを即
時に判断することができない。However, in the method using a transmittance meter to monitor the generation of fog, the transmittance meter must be arranged at the monitoring point, and special equipment is required and the installation place is restricted. Sometimes. In addition, in the method of photographing a road installation with a television camera and identifying the image of the road installation obtained by shooting, the burden on the observer is heavy, and fog occurs if the observer does not always look at the monitor screen It cannot be immediately determined whether or not.
【0004】そこで、特開平6−308256号公報に
記載されているように、テレビカメラで得られた画像の
輝度から霧が発生したか否かを検出する方法が提案され
ている。Therefore, as described in JP-A-6-308256, there has been proposed a method for detecting whether or not fog has occurred from the luminance of an image obtained by a television camera.
【0005】[0005]
【発明が解決しようとする課題】従来技術ではテレビカ
メラで得られた映像の輝度を基に霧の発生を検出してい
るので、天候によっては輝度の分布がずれて霧の発生を
正確に検出できない恐れがある。In the prior art, since the occurrence of fog is detected based on the luminance of an image obtained by a television camera, the distribution of luminance is shifted depending on the weather and the occurrence of fog is accurately detected. It may not be possible.
【0006】本発明の目的は、霧の発生を高精度に検出
することができる霧監視システムを提供することにあ
る。An object of the present invention is to provide a fog monitoring system capable of detecting generation of fog with high accuracy.
【0007】[0007]
【課題を解決するための手段】前記目的を達成するため
に、本発明は、霧が発生する環境下に置かれた監視対象
を撮影して映像信号を生成する撮影手段と、撮影手段か
らの映像信号を画像データに変換して監視対象の映像を
テンプレート画像として生成するテンプレート画像生成
手段と、監視対象の映像に関するパターン画像として霧
が発生していないときの基準値を示す登録パターン画像
を記憶する登録パターン記憶手段と、テンプレート画像
生成手段の生成によるテンプレート画像と登録パターン
記憶手段に記憶された登録パターンとの相違に関する相
関値を算出する相関値算出手段と、相関値算出手段の算
出値から霧の発生に関する監視情報を出力する監視情報
出力手段とを備え、前記監視情報出力手段は、相関値算
出手段の算出による相関値から監視対象周囲の透過率を
算出する透過率算出手段と、透過率算出手段の算出によ
る透過率が設定値以下のときに監視対象の周囲に霧が発
生した旨の警報を出力する警報出力手段とを有し、前記
透過率算出手段は、ラメルハート型ニューラルネットワ
ークで構成され、相関値を入力ニューロン値とし、透過
率を出力ニューロン値としてなる霧監視システムを構成
したものである。In order to achieve the above object, the present invention provides a photographing means for photographing an object to be monitored placed in an environment where fog is generated to generate a video signal; A template image generating means for converting a video signal into image data to generate a monitoring target video as a template image, and a registered pattern image indicating a reference value when no fog is generated as a pattern image relating to the monitoring target video. Registration pattern storage means, a correlation value calculation means for calculating a correlation value relating to a difference between the template image generated by the template image generation means and the registration pattern stored in the registration pattern storage means, and a calculated value of the correlation value calculation means. Monitoring information output means for outputting monitoring information relating to generation of fog , wherein the monitoring information output means includes
The transmittance around the monitored object is calculated from the correlation value
The transmittance calculating means to be calculated and the transmittance calculating means
Fog around the monitored object when the transmittance is below the set value
Alarm output means for outputting an alarm indicating the occurrence of
The transmittance calculating means is a ramel-heart type neural network.
The correlation value is used as the input neuron value, and the transmission
This is a fog monitoring system in which the rate is used as an output neuron value .
【0008】また、本発明は、霧が発生する環境下に置
かれた監視対象を撮影して映像信号を生成する撮影手段
と、撮影手段からの映像信号を画像データに変換して監
視対象の映像を濃淡に応じたテンプレート画像として生
成するテンプレート画像生成手段と、監視対象の映像に
関する濃淡パターン画像として霧が発生していないとき
の基準値を示す登録パターン画像を記憶する登録パター
ン記憶手段と、テンプレート画像生成手段の生成による
テンプレート画像と登録パターン記憶手段に記憶された
登録パターン画像との相違に関する相関値を算出する相
関値算出手段と、相関値算出手段の算出値から霧の発生
に関する監視情報を出力する監視情報出力手段とを備
え、前記監視情報出力手段は、相関値算出手段の算出に
よる相関値から監視対象周囲の透過率を算出する透過率
算出手段と、透過率算出手段の算出による透過率が設定
値以下のときに監視対象の周囲に霧が発生した旨の警報
を出力する警報出力手段とを有し、前記透過率算出手段
は、ラメルハート型ニューラルネットワークで構成さ
れ、相関値を入力ニューロン値とし、透過率を出力ニュ
ーロン値としてなる霧監視システムを構成したものであ
る。 [0008] The present invention also relates to a method of placing the apparatus in an environment where fog is generated.
Imaging means for imaging the monitored object and generating a video signal
And convert the video signal from the shooting means to image data and monitor
Generates the image to be viewed as a template image corresponding to the shade.
Template image generation means to generate
When fog is not generated as a shade pattern image
Registration pattern that stores a registration pattern image indicating the reference value of
Storage means and template image generation means
Stored in the template image and registered pattern storage means
Phase for calculating the correlation value related to the difference from the registered pattern image
Generation of fog from the calculated value of the correlation value calculation means and the correlation value calculation means
Monitoring information output means for outputting monitoring information regarding
In addition, the monitoring information output means is used for calculating the correlation value calculating means.
To calculate the transmittance around the monitoring target from the correlation value
Calculator and transmittance calculated by transmittance calculator are set
Warning that fog has occurred around the monitoring target when the value is below the value
Alarm output means for outputting the transmittance, wherein the transmittance calculation means
Consists of a ramel-heart type neural network
The correlation value is used as the input neuron value, and the transmittance is used as the output neuron.
The fog monitoring system that is
You.
【0009】また、本発明は、霧が発生する環境下に置
かれた監視対象を撮影して映像信号を生成する撮影手段
と、撮影手段からの映像信号を画像データに変換して監
視対象の映像をテンプレート画像として生成するテンプ
レート画像生成手段と、監視対象の映像に関するパター
ン画像として霧が発生していないときの基準値を示す登
録パターン画像を記憶する登録パターン記憶手段と、テ
ンプレート画像生成手段の生成によるテンプレート画像
と登録パターン記憶手段に記憶された登録パターンとの
相違に関する相関値を算出する相関値算出手段と、相関
値算出手段の算出値から霧の発生に関する監視情報を出
力する監視情報出力手段とを備え、前記監視情報出力手
段は、相関値算出手段の算出による相関値から監視対象
周囲の視界距離を算出する視界距離算出手段と、視界距
離算出手段の算出による視界距離が設定値以下のときに
監視対象の周囲に霧が発生した旨の警報を出力する警報
出力手段とを有し、前記視界距離算出手段は、ラメルハ
ート型ニューラルネットワークで構成され、相関値を入
力ニューロン値とし、視界距離を出力ニューロン値とし
てなる霧監視システムを構成したものである。 [0009] The present invention is also applicable to an environment where fog is generated.
Imaging means for imaging the monitored object and generating a video signal
And convert the video signal from the shooting means to image data and monitor
A template that generates a video to be viewed as a template image
Rate image generation means and putter related to video to be monitored
Of the reference value when no fog is generated
Registered pattern storage means for storing a recorded pattern image;
Template image generated by template image generation means
And the registered pattern stored in the registered pattern storage means.
A correlation value calculating means for calculating a correlation value relating to the difference;
Monitoring information about fog generation is output from the value calculated by the value calculation means.
Monitoring information output means for outputting the monitoring information output means.
The column indicates the monitoring target based on the correlation value calculated by the correlation value calculation means.
A view distance calculating means for calculating a surrounding view distance, and a view distance
When the visibility distance calculated by the separation calculation means is equal to or less than the set value
An alarm that outputs an alarm that fog has occurred around the monitoring target
Output means, and the view distance calculating means includes
It is composed of a neural network with
Force neuron value, and view distance as output neuron value
Fog monitoring system.
【0010】また、本発明は、霧が発生する環境下に置
かれた監視対象を撮影して映像信号を生成する撮影手段
と、撮影手段からの映像信号を画像データに変換して監
視対象の映像を濃淡に応じたテンプレート画像として生
成するテンプレート画像生成手段と、監視対象の映像に
関する濃淡パターン画像として霧が発生していないとき
の基準値を示す登録パターン画像を記憶する登録パター
ン記憶手段と、テンプレート画像生成手段の生成による
テンプレート画像と登録パターン記憶手段に記憶された
登録パターン画像との相違に関する相関値を算出する相
関値算出手段と、相関値算出手段の算出値から霧の発生
に関する監視情報を出力する監視情報出力手段とを備
え、前記監視情報出力手段は、相関値算出手段の算出に
よる相関値から監視対象周囲の視界距離を算出する視界
距離算出手段と、視界距離算出手段の算出による視界距
離が設定値以下のときに監視対象の周囲に霧が発生した
旨の警報を出力する警報出力手段とを有し、前記視界距
離算出手段は、ラメルハート型ニューラルネットワーク
で構成され、相関値を入力ニューロン値とし、視界距離
を出力ニューロン値としてなる霧監視システムを構成し
たものである。 [0010] The present invention is also applicable to an environment where fog is generated.
Imaging means for imaging the monitored object and generating a video signal
And convert the video signal from the shooting means to image data and monitor
Generates the image to be viewed as a template image corresponding to the shade.
Template image generation means to generate
When fog is not generated as a shade pattern image
Registration pattern that stores a registration pattern image indicating the reference value of
Storage means and template image generation means
Stored in the template image and registered pattern storage means
Phase for calculating the correlation value related to the difference from the registered pattern image
Generation of fog from the calculated value of the correlation value calculation means and the correlation value calculation means
Monitoring information output means for outputting monitoring information regarding
In addition, the monitoring information output means is used for calculating the correlation value calculating means.
To calculate the visibility distance around the monitoring target from the correlation value
A distance calculating unit, and a view distance calculated by the view distance calculating unit.
Fog occurred around the monitoring target when the separation was below the set value
Alarm output means for outputting an alarm to the effect that
The separation calculation means is a ramel-heart type neural network
And the correlation value as the input neuron value,
A fog monitoring system that uses
It is a thing.
【0011】また、本発明は、霧が発生する環境下に置
かれた監視対象を撮影して映像信号を生成する撮影手段
と、撮影手段からの映像信号を画像データに変換して監
視対象の映像をテンプレート画像として生成するテンプ
レート画像生成手段と、監視対象の映像に関するパター
ン画像として霧が発生していないときの基準値を示す登
録パターン画像を記憶する登録パターン記憶手段と、テ
ンプレート画像生成手段の生成によるテンプレート画像
と登録パターン記憶手段に記憶された登録パターンとの
相違に関する相関値を算出する相関値算出手段と、相関
値算出手段の算出値から霧の発生に関する監視情報を出
力する監視情報出力手段と、撮影手段の撮影による映像
信号を画像データに変換して画像の平均濃度を算出する
平均濃度算出手段と、平均濃度算出手段の算出により平
均濃度から昼夜を判別する昼夜判別手段とを備え、前記
監視情報出力手段は、昼夜判別手段により薄暮を含む昼
間であると判定されたことを条件に情報を出力してなる
霧監視システムを構成したものである。 Further , the present invention is applicable to an environment where fog is generated.
Imaging means for imaging the monitored object and generating a video signal
And convert the video signal from the shooting means to image data and monitor
A template that generates a video to be viewed as a template image
Rate image generation means and putter related to video to be monitored
Of the reference value when no fog is generated
Registered pattern storage means for storing a recorded pattern image;
Template image generated by template image generation means
And the registered pattern stored in the registered pattern storage means.
A correlation value calculating means for calculating a correlation value relating to the difference;
Monitoring information about fog generation is output from the value calculated by the value calculation means.
Surveillance information output means and images taken by the photographing means
Convert signal to image data and calculate average density of image
Average density calculation means and average density calculation means
Day and night discriminating means for discriminating day and night from the average density,
The monitoring information output means outputs the daytime including dusk by the daytime / nighttime determination means.
Information is output on the condition that it is determined to be between
It constitutes a fog monitoring system.
【0012】また、本発明は、霧が発生する環境下に置
かれた監視対象を撮影して映像信号を生成する撮影手段
と、撮影手段からの映像信号を画像データに変換して監
視対象の映像を濃淡に応じたテンプレート画像として生
成するテンプレート画像生成手段と、監視対象の映像に
関する濃淡パターン画像として霧が発生していないとき
の基準値を示す登録パターン画像を記憶する登録パター
ン記憶手段と、テンプレート画像生成手段の生成による
テンプレート画像と登録パターン記憶手段に記憶された
登録パターン画像との相違に関する相関値を算出する相
関値算出手段と、相関値算出手段の算出値から霧の発生
に関する監視情報を出力する監視情報出力手段と、撮影
手段の撮影による映像信号を画像データに変換して画像
の平均濃度を算出する平均濃度算出手段と、平均濃度算
出手段の算出により平均濃度から昼夜を判別する昼夜判
別手段とを備え、前記監視情報出力手段は、昼夜判別手
段により薄暮を含む昼間であると判定されたことを条件
に情報を出力してなる霧監視システムを構成したもので
ある。 Further , the present invention provides a method for installing the apparatus in an environment where fog is generated.
Imaging means for imaging the monitored object and generating a video signal
And convert the video signal from the shooting means to image data and monitor
Generates the image to be viewed as a template image corresponding to the shade.
Template image generation means to generate
When fog is not generated as a shade pattern image
Registration pattern that stores a registration pattern image indicating the reference value of
Storage means and template image generation means
Stored in the template image and registered pattern storage means
Phase for calculating the correlation value related to the difference from the registered pattern image
Generation of fog from the calculated value of the correlation value calculation means and the correlation value calculation means
Monitoring information output means for outputting monitoring information regarding
Converts the video signal obtained by the means into image data
Average density calculation means for calculating the average density of
Day / Night format to determine day / night from average density by calculation of output means
The monitoring information output means includes a day / night discriminating means.
Condition that it was judged that it was daytime including dusk by step
Fog monitoring system that outputs information to
is there.
【0013】前記各霧監視システムを構成するに際して
は、以下の要素を付加することができる。 In configuring each of the fog monitoring systems,
Can add the following elements:
【0014】(1)撮影手段により撮影される監視対象
は複数個に設定され、登録パターン記憶手段には各監視
対象に対応した登録パターン画像が記憶されており、相
関値算出手段は各監視対象に関する相関値を算出してな
り、監視情報出力手段は各監視対象に関する相関値から
監視情報を出力してなる。 (1) Monitored object photographed by photographing means
Is set to multiple, and each monitoring is
The registered pattern image corresponding to the target is stored
The correlation value calculation means calculates a correlation value for each monitoring target.
The monitoring information output means uses the correlation value for each monitored
It outputs monitoring information.
【0015】(2)テンプレート画像生成手段の生成に
よるテンプレート画像から登録パターン画像を生成する
登録パターン画像生成手段と、登録パターン画像生成手
段の生成による登録パターン画像に従って登録パターン
記憶手段の登録パターン画像を指定の周期で更新する更
新手段とを備えている。 (2) For generation of template image generation means
A registered pattern image from a template image
Registered pattern image generating means and registered pattern image generating means
Registration pattern according to the registration pattern image generated by the step
Updates the registered pattern image in the storage means at specified intervals.
With new means.
【0016】[0016]
【0017】また、本発明は、夜間においても霧の発生
を確実に検出するために、霧が発生する環境下の撮影対
象領域内を移動する移動体を撮影して映像信号を生成す
る撮影手段と、撮影手段からの映像信号を画像データに
変換して移動体の特定の部位の画像を移動体の移動に合
わせて順次生成する画像処理手段と、画像処理手段によ
り生成された画像のうち撮影手段からの距離が相異なる
画像を比較して遠方における移動体の特定の部位を識別
できるか否かを判定する判定手段と、判定手段の判定結
果に従って霧の発生に関する判定情報を出力する判定情
報出力手段とを備えている霧監視システムを構成したも
のである。According to the present invention, in order to reliably detect the occurrence of fog even at night, a photographing means for photographing a moving object moving in a photographing target area in an environment where fog occurs to generate a video signal. And image processing means for converting a video signal from the imaging means into image data to sequentially generate an image of a specific part of the moving body in accordance with the movement of the moving body, and photographing the image generated by the image processing means. Determining means for comparing images at different distances from the means to determine whether or not a specific part of the moving body in the distance can be identified, and determining information for outputting determination information on fog generation in accordance with the determination result of the determining means This constitutes a fog monitoring system including output means.
【0018】夜間における霧監視システムにおいては以
下の要素を付加することができる。The following elements can be added to the nighttime fog monitoring system.
【0019】(1)判定情報出力手段は、画像処理手段
により生成された画像のうち撮影手段からの距離が相異
なる画像を比較して透過率を算出する透過率算出手段
と、透過率算出手段の算出による透過率が設定値以下の
ときに遠方における移動体の特定の部位を識別できない
として警報を発生する警報発生手段とを備えている。(1) The determination information output means includes: a transmittance calculation means for comparing the images generated by the image processing means at different distances from the photographing means to calculate a transmittance; and a transmittance calculation means. And an alarm generating means for generating an alarm when it is determined that the specific portion of the distant moving body cannot be identified when the transmittance obtained by the calculation is equal to or less than the set value.
【0020】(2)判定情報出力手段は、画像処理手段
により生成された画像のうち撮影手段からの距離が相異
なる画像を比較して視界距離を算出する視界距離算出手
段と、視界距離算出手段の算出による視界距離が設定値
以下のときに遠方における移動体の特定の部位を識別で
きないとして警報を発生する警報発生手段とを備えてい
る。(2) The determination information output means includes: a view distance calculation means for calculating a view distance by comparing images having different distances from the photographing means among the images generated by the image processing means; and a view distance calculation means. And a warning generating means for generating a warning when the visibility distance calculated by the calculation is less than or equal to the set value, and determines that a specific part of the distant moving body cannot be identified.
【0021】(3)画像処理手段は、移動体の特定の部
位の画像として移動体の照明部材の照明による画像を生
成してなる。(3) The image processing means generates an image by illumination of the illumination member of the moving body as an image of a specific portion of the moving body.
【0022】(4)撮影手段の撮影による映像信号を画
像データに変換して画像の平均濃度を算出する平均濃度
算出手段と、平均濃度算出手段の算出により平均濃度か
ら昼夜を判別する昼夜判別手段とを備え、判定情報出力
手段は、昼夜判別手段により夜間であると判定されたこ
とを条件に情報を出力してなる。(4) Average density calculating means for converting the video signal obtained by the image capturing means into image data to calculate the average density of the image, and day / night discriminating means for discriminating day and night from the average density by the average density calculating means. The determination information output means outputs information on condition that it is determined that it is nighttime by the day / night determination means.
【0023】前記した手段によれば、薄暮を含む昼間に
おいては、監視対象を撮影して得られた映像信号を基に
テンプレート画像が生成され、このテンプレート画像と
登録パターン画像とが比較され、両者の相関値が求めら
れる。すなわち両者の画像がどの程度異なっているかの
相関値が求められ、この相関値によって霧が発生したか
否かの監視情報が出力される。例えば、相関値がある設
定値以下のときには霧が発生したとして霧が発生した旨
の警報が出力される。また霧の発生を判定する場合、画
像をパターンとして比較しているため、天候の影響を最
小限に抑制した状態で霧の発生を高精度に検出すること
ができる。また霧の発生を判定するに際しては、相関値
を入力とし、ラメルハート型ニューラルネットワークの
学習機能により、相関値に応じた透過率あるいは視界距
離を求め、これらの値から霧が発生したか否かを判定す
ることができる。According to the above-described means, in the daytime including dusk, a template image is generated based on the video signal obtained by photographing the monitoring target, and the template image is compared with the registered pattern image. Is obtained. That is, a correlation value indicating how much the two images are different from each other is obtained, and monitoring information on whether or not fog has occurred is output based on the correlation value. For example, when the correlation value is equal to or less than a certain set value, it is determined that fog has occurred and an alarm indicating that fog has occurred is output. Further, when determining the occurrence of fog, since the image is compared as a pattern, the occurrence of fog can be detected with high accuracy while the influence of weather is minimized. Also, when determining the occurrence of fog, the correlation value is input and the learning function of the Ramelheart-type neural network is used to determine the transmittance or the viewing distance according to the correlation value, and from these values it is determined whether or not fog has occurred. Can be determined.
【0024】また夜間においては、撮影対象領域内を移
動する移動体を撮影して得られた映像信号を基に移動体
の特定の部位の画像を移動体の移動に合わせて順次生成
し、生成された画像のうち撮影手段からの距離が相異な
る画像を比較して遠方における移動体の特定の部位を識
別できるか否かを判定し、この判定結果にしたがって霧
の発生に関する判定情報を出力するようにしている。こ
の場合移動体の特定の部位を照明部材に設定し、遠方に
おける照明部材をどの程度識別できるか否かにによって
霧の発生を判定することができる。例えば、車両の照明
部材(ヘッドライト、テールランプ)から得られた画像
を追跡し、霧が発生しないときに追跡できる距離と霧が
発生しているときに追跡できる距離とを比較すること
で、遠方における車両の照明部材を識別できるか否かを
判定することができる。またこの追跡可能距離から透過
率あるいは視界距離を求め、これらの値から霧が発生し
たか否かを判定することができる。In the nighttime, an image of a specific part of the moving body is sequentially generated in accordance with the movement of the moving body based on a video signal obtained by photographing the moving body moving in the photographing target area. Comparing the images at different distances from the photographing means from the obtained images to determine whether or not a specific part of the distant moving body can be identified, and output determination information regarding fog generation according to the determination result. Like that. In this case, it is possible to determine the occurrence of fog by setting a specific part of the moving body as the lighting member and determining how far the lighting member can be identified in a distant place. For example, by tracking images obtained from vehicle lighting components (headlights, tail lamps) and comparing the distance that can be tracked when fog is not generated with the distance that can be tracked when fog is generated, It can be determined whether or not the lighting member of the vehicle can be identified. The transmittance or the visibility distance is obtained from the traceable distance, and it is possible to determine from these values whether or not fog has occurred.
【0025】[0025]
【発明の実施の形態】以下、本発明の一実施の形態を図
面にしたがって説明する。図1において、霧監視システ
ムはテレビカメラ10、画像処理部12、霧検出部1
4、表示部16を備えて構成されている。DESCRIPTION OF THE PREFERRED EMBODIMENTS One embodiment of the present invention will be described below with reference to the drawings. In FIG. 1, a fog monitoring system includes a television camera 10, an image processing unit 12, and a fog detection unit 1.
4. The display unit 16 is provided.
【0026】テレビカメラ10は、道路18上方の空間
部を撮影対象領域20として配置されており、霧が発生
する環境下に置かれた白線22とその周囲を監視対象と
して撮影して映像信号を生成する撮影手段として構成さ
れており、映像信号が画像処理部12に入力されてい
る。The television camera 10 is arranged with a space above the road 18 as a photographing target area 20. The television camera 10 photographs a white line 22 placed in an environment where fog occurs and its surroundings as a monitoring target, and generates a video signal. The video signal is input to the image processing unit 12.
【0027】映像処理部12は、図2に示すように、A
/D変換器24、複数の画像メモリ26、制御部(CP
U)28、テンプレート登録部30、相関演算部32、
車両登録部34、車両追跡部38、平均濃度抽出部38
を備えて構成されている。A/D変換器24は制御部2
8からの指令により、テレビカメラ10の映像信号をデ
ジタルの画像データに変換し、画像メモリ26に出力す
るようになっている。画像メモリ26は、画像データを
濃淡画像データとして格納するとともに濃淡パターンの
テンプレート画像として記憶するようになっている。す
なわち画像メモリ26は制御部28とともにテンプレー
ト画像生成手段として構成されている。As shown in FIG. 2, the video processing unit 12
/ D converter 24, a plurality of image memories 26, a control unit (CP
U) 28, a template registration unit 30, a correlation operation unit 32,
Vehicle registration unit 34, vehicle tracking unit 38, average concentration extraction unit 38
It is provided with. The A / D converter 24 is the control unit 2
In response to a command from the controller 8, the video signal of the television camera 10 is converted into digital image data and output to the image memory 26. The image memory 26 stores the image data as grayscale image data and also stores the grayscale pattern as a template image. That is, the image memory 26 is configured as a template image generating unit together with the control unit 28.
【0028】また、図3に示す、白線22近傍の領域は
3つの領域R1、R2、R3に分割されており、各領域
R1〜R3の画像は、監視対象の濃淡パターンの画像と
して画像メモリ26に格納される。各領域の濃淡パター
ンの画像のうち霧が発生していないときの濃淡パターン
の画像は霧が発生していないときの基準値を示す登録パ
ターン画像としてテンプレート登録部30に登録され
る。例えば、領域R1〜R3の画像は図4(a)に示す
ように、登録パターン画像P1、P2、P3としてテン
プレート登録部30に登録される。すなわちテンプレー
ト登録部30は登録パターン記憶手段として構成されて
いる。なお、登録パターンの画像P1、P2、P3はそ
れぞれテレビカメラ10からの距離が10メートル、1
5メートル、20メートルのときの濃淡パターンを示
し、各パターンは256階調のパターンとして構成され
ている。The area near the white line 22 shown in FIG. 3 is divided into three areas R1, R2, and R3, and the images of the areas R1 to R3 are stored in the image memory 26 as an image of a light and shade pattern to be monitored. Is stored in Among the images of the light and shade patterns in each area, the image of the light and shade pattern when no fog is generated is registered in the template registration unit 30 as a registered pattern image indicating a reference value when no fog is generated. For example, the images of the regions R1 to R3 are registered in the template registration unit 30 as registered pattern images P1, P2, and P3, as shown in FIG. That is, the template registration unit 30 is configured as a registration pattern storage unit. Note that the images P1, P2, and P3 of the registered pattern have a distance of 10 meters from the television camera 10, respectively.
The shading patterns at 5 meters and 20 meters are shown, and each pattern is configured as a pattern of 256 gradations.
【0029】相関演算部32は、一定周期で画像メモリ
26に取り込まれる画像データのうち領域R1、R2、
R3に関する濃淡パターン画像とテンプレート登録部3
0に登録された登録パターン画像P1、P2、P3と比
較して両者のパターンの相違に関する相関値(相関度あ
るいは類似度)を算出する相関値算出手段として構成さ
れている。濃淡パターン画像のテンプレートによる相関
値を算出するに際しては、次の式に従った正規化相関処
理を実行することとしている。The correlation calculation section 32 stores the regions R1, R2,
Shading pattern image relating to R3 and template registration unit 3
It is configured as a correlation value calculation unit that calculates a correlation value (correlation degree or similarity) regarding the difference between the two patterns by comparing with the registered pattern images P1, P2, and P3 registered at 0. When calculating the correlation value using the template of the grayscale pattern image, a normalized correlation process according to the following equation is executed.
【0030】[0030]
【数1】 (Equation 1)
【0031】[0031]
【数2】 (Equation 2)
【0032】[0032]
【数3】 (Equation 3)
【0033】[0033]
【数4】 (Equation 4)
【0034】[0034]
【数5】 (Equation 5)
【0035】[0035]
【数6】 (Equation 6)
【0036】(1)式に従った演算を実行するに際して
は、処理対象画像fに対して濃淡テンプレートTを用い
て、ある点(u,v)の類似度r(u,v)を求める。
この類似度がテンプレートTに類似している程1の値に
近づく。そして(1)式において、f(u+i,v+
j)は(u,v)点の近傍の対象画像の濃度値、T
(i,j)はテンプレート画像の(i,j)点の濃度
値、p、qはそれぞれテンプレート画像のx,yサイズ
である。また(1)式のうち対象画像に存在しないテン
プレートだけに関するデータはあらかじめ計算できるの
で、(2)式、(3)式の値は相関演算前に計算するこ
とができる。このため、テンプレートデータと相関対象
画像との相関演算において、(1)式に属する(4)
式、(5)式、(6)式についてはリアルタイムで演算
し、各演算結果を用いることで最終的に(1)式の類似
度を求めることできる。When executing the calculation according to the equation (1), the similarity r (u, v) of a certain point (u, v) is obtained by using the density template T for the image f to be processed.
The closer the similarity is to the template T, the closer to the value of 1. Then, in equation (1), f (u + i, v +
j) is the density value of the target image near the (u, v) point, T
(I, j) is the density value at point (i, j) of the template image, and p and q are the x and y sizes of the template image, respectively. In addition, since data relating only to templates that do not exist in the target image in the expression (1) can be calculated in advance, the values of the expressions (2) and (3) can be calculated before the correlation operation. Therefore, in the correlation operation between the template data and the image to be correlated, (4) which belongs to the equation (1)
Equations (5) and (6) are calculated in real time, and the similarity of equation (1) can be finally obtained by using the results of each calculation.
【0037】また(1)式を導出するに際しては、以下
の式を用いることができる。In deriving the equation (1), the following equation can be used.
【0038】例えば、相関関係を示す式は次の(7)式
で表わされる。For example, the equation indicating the correlation is expressed by the following equation (7).
【0039】[0039]
【数7】 (Equation 7)
【0040】相関関係は、f、gに濃度階調の差がある
場合、正常な値を抽出することができないため、濃度に
ついて正規化を行なう必要がある。(7)式に対する相
関関係の正規化を行なうと、次の(8)式が得られる。As for the correlation, if there is a difference in density gradation between f and g, a normal value cannot be extracted, and it is necessary to normalize the density. By normalizing the correlation with respect to the expression (7), the following expression (8) is obtained.
【0041】[0041]
【数8】 (Equation 8)
【0042】(8)式を変形すると、(8)式は(9)
式で表わされる。By transforming equation (8), equation (8) becomes equation (9)
It is expressed by an equation.
【0043】[0043]
【数9】 (Equation 9)
【0044】r’とパターンとの具体例を示すと次の表
1のようになる。Table 1 below shows specific examples of r 'and the pattern.
【0045】[0045]
【表1】 [Table 1]
【0046】表1において、gを登録パターンとしたと
きに、パターンf1は相隣接する領域間の数値の差が登
録パターンgとは逆の関係にありr’の値は−1とな
る。これに対して、パターンf2、f3、f4は相隣接
する領域間の数値の差が登録パターンgと同じ関係を有
するため、r’の値は1となる。In Table 1, when g is a registered pattern, the pattern f1 has a difference in numerical value between adjacent areas opposite to that of the registered pattern g, and the value of r 'is -1. On the other hand, in the patterns f2, f3, and f4, the value of r ′ is 1 because the difference in numerical values between adjacent areas has the same relationship as the registered pattern g.
【0047】処理対象画像fに対して濃淡テンプレート
Tを用いて、点(u,v)の類似度をr(u,v)と
し、点(u,v)の近傍の対象画像の濃度値をf(u+
i,v+i)、テンプレート画像の点(u,v)の濃度
値をT(u,v)、テンプレート画像のx、yサイズを
p,qとすることで、(9)式から(1)式を導き出す
こができる。Using the grayscale template T for the image f to be processed, let the similarity of the point (u, v) be r (u, v), and let the density value of the target image near the point (u, v) be f (u +
i, v + i), the density value of the point (u, v) of the template image is T (u, v), and the x and y sizes of the template image are p and q. Can be derived.
【0048】また相関演算部32において相関値を算出
した場合、図4(b)に示すように、エリアR1の相関
度は0.8、エリアR2の相関度は0.6、エリアR3
の相関度は0.3のように、テレビカメラ10から離れ
た領域の類似度が順次低くなる。これは、霧がテレビカ
メラ10の前方から発生したことを示している。なおテ
レビカメラ10の後方から霧が発生したときには、各領
域R1〜R3の類似度はともに低い値を示す。When the correlation value is calculated by the correlation calculation unit 32, as shown in FIG. 4B, the correlation of area R1 is 0.8, the correlation of area R2 is 0.6, and the area R3 is
, The degree of similarity in a region distant from the television camera 10 gradually decreases, such as 0.3. This indicates that fog has been generated from the front of the television camera 10. When fog is generated from behind the television camera 10, the similarity of each of the regions R1 to R3 indicates a low value.
【0049】一方、天候の変化や薄暮時などにおいて各
領域R1〜R3から得られた画像の濃度が低下したとき
でも、霧が発生していないときには、パターンそのもの
が変化しないため、図4(c)に示すように、各領域R
1〜R3の相関度はすべて0.9以上となる。On the other hand, even when the density of the image obtained from each of the regions R1 to R3 is reduced due to a change in the weather or at dusk, the pattern itself does not change when no fog is generated. ), Each region R
The correlation degrees of 1 to R3 are all 0.9 or more.
【0050】次に、夜間においては、道路照明がなかっ
たり、白線22などが見えず、領域R1〜R3を設定す
ることが不可能であることを考慮し、車両登録部34、
車両追跡部36において、移動体としての車両の画像を
追跡することで霧の発生を検出することとしている。こ
の場合、車両登録部34は、図5に示すように、テレビ
カメラ10で撮影された画像のうち車両追跡領域40内
を移動する車両の特定の部位として、照明部材、例えば
テールランプ(ヘッドライト)L1、L2の画像を登録
する。車両追跡部36は、図5(b)、(c)に示され
るように、登録されたテールランプL1、L2の画像が
10メートルの地点から15メートル、20メートルの
地点まで追跡できるか否かを判定するようになってい
る。図5(b)では、霧が発生していないときには、テ
ールランプL1、L2の画像はテレビカメラ10から2
0メートルの距離まで追跡できることを示しており、霧
が発生したときには、図5(c)に示すように、テール
ランプL1、L2の画像はテレビカメラ10からの距離
が20メートルの地点では識別できないことを示してい
る。なおテールランプL1、L2の画像と距離との関係
は、画素の座標によって判別できるようになっている。
すなわち夜間における画像処理部12の機能として、A
/D変換器24、画像メモリ26、制御部28、車両登
録部34、車両追跡部36は映像信号を画像データに変
換して車両のテールランプL1、L2の画像を車両の移
動に合わせて順次生成する画像処理手段と、画像処理手
段によって生成されたテールランプL1、L2の画像の
うち距離が異なる画像を比較して遠方における車両のテ
ールランプL1、L2の画像が識別できるか否かを判定
する判定手段を構成している。Next, in consideration of the fact that there is no road illumination or the white line 22 cannot be seen at night and the regions R1 to R3 cannot be set, the vehicle registration unit 34
The vehicle tracking unit 36 detects the occurrence of fog by tracking an image of a vehicle as a moving object. In this case, as shown in FIG. 5, the vehicle registration unit 34 determines that a specific part of the vehicle moving in the vehicle tracking area 40 in the image captured by the television camera 10 is a lighting member, for example, a tail lamp (headlight). The images of L1 and L2 are registered. As shown in FIGS. 5B and 5C, the vehicle tracking unit 36 determines whether the registered images of the tail lamps L1 and L2 can be tracked from the point of 10 meters to the points of 15 meters and 20 meters. The judgment is made. In FIG. 5B, when no fog is generated, the images of the tail lamps L1 and L2 are
This indicates that tracking can be performed up to a distance of 0 meters. When fog occurs, images of the tail lamps L1 and L2 cannot be identified at a distance of 20 meters from the television camera 10 as shown in FIG. Is shown. The relationship between the images of the tail lamps L1 and L2 and the distance can be determined based on the coordinates of the pixels.
That is, as a function of the image processing unit 12 at night, A
The / D converter 24, the image memory 26, the control unit 28, the vehicle registration unit 34, and the vehicle tracking unit 36 convert a video signal into image data and sequentially generate images of the tail lamps L1 and L2 of the vehicle in accordance with the movement of the vehicle. Image processing means for comparing the images of tail lamps L1 and L2 generated by the image processing means with different distances to determine whether or not images of the tail lamps L1 and L2 of the distant vehicle can be identified. Is composed.
【0051】平均濃度抽出部38は、画像メモリ26か
ら画像データを受けて画像の平均濃度を算出し、この算
出値が設定値より濃か薄いかにより昼夜を判別するよう
になっている。すなわち平均濃度抽出部38はA/D変
換器24、画像メモリ26、制御部28とともに平均濃
度算出手段と昼夜判別手段として構成されている。そし
て平均濃度抽出部38の判定結果は霧検出部14に入力
される。The average density extractor 38 receives the image data from the image memory 26, calculates the average density of the image, and determines day or night based on whether the calculated value is darker or lighter than the set value. That is, the average density extracting unit 38 is configured as an average density calculating unit and a day / night determining unit together with the A / D converter 24, the image memory 26, and the control unit 28. Then, the determination result of the average density extraction unit 38 is input to the fog detection unit 14.
【0052】またテンプレート登録部30に登録パター
ン画像を登録するに際しては、画像メモリ26に登録さ
れたテンプレート画像から登録パターン画像を生成し、
生成した登録パターン画像を、例えば5分、10分の周
期でテンプレート登録部30に登録し、テンプレート登
録部30の登録パターン画像を任意の周期で更新するこ
ができる。この場合A/D変換器24、画像メモリ2
6、制御部28は登録パターン画像生成手段を構成する
とともに更新手段を構成することになる。When registering a registration pattern image in the template registration unit 30, a registration pattern image is generated from the template image registered in the image memory 26,
The generated registration pattern image can be registered in the template registration unit 30 at a cycle of, for example, 5 minutes or 10 minutes, and the registration pattern image of the template registration unit 30 can be updated at an arbitrary cycle. In this case, the A / D converter 24 and the image memory 2
6. The control unit 28 constitutes a registered pattern image generating means and constitutes an updating means.
【0053】霧検出部14は、表示部16とともに監視
情報出力手段を構成するとともに判定情報出力手段を構
成するようになっており、画像処理部12から昼間と判
定されたときの判定結果に応答して、昼間における霧を
検出するために、入力切替部44、霧検出回路48、学
習機構50を備えて構成されており、学習機構50には
入力信号発生機構52、パラメータ変更機構54、学習
制御機構56、教師信号発生機構58、突合せ部60が
設けられている。また霧検出部14には、画像処理部1
2から夜間としての判定結果に応答して、夜間における
霧を検出するために、霧検出回路62が設けられてい
る。The fog detection section 14 constitutes monitoring information output means together with the display section 16 and also constitutes judgment information output means, and responds to the judgment result when the image processing section 12 judges that it is daytime. In order to detect fog in the daytime, an input switching unit 44, a fog detection circuit 48, and a learning mechanism 50 are provided, and the learning mechanism 50 includes an input signal generating mechanism 52, a parameter changing mechanism 54, and learning. A control mechanism 56, a teacher signal generating mechanism 58, and a butting unit 60 are provided. The fog detection unit 14 includes the image processing unit 1
A fog detection circuit 62 is provided to detect fog at night in response to the determination result from 2 to night.
【0054】入力切替部44は、学習機構50によって
霧検出回路48に対する学習を実行するときに入力信号
発生機構52側に切替られ、学習処理が終了したあとは
画像処理部12側に切替られるようになっている。霧検
出回路48は、例えばラメルハート型の前向きニューラ
ルネットワークで構成されており、図8に示すように、
領域R1、R2、R3の相関値X1、X2、X3が入力
ニューロン値の電位として与えられ、中間ニューロン群
(中間層)を介して11個の出力ニューロン値(Z1〜
Z11)を出力する構成となっている。11個の出力ニ
ューロン値は、それぞれ透過率0〜100%の10%単
位に割り当てられている。このニューラルネットワーク
は、あらかじめ入力画像に対して、監視員の判断結果が
与えられ、学習機構50によりすべてのシナップス(ニ
ューロンを結合する信号伝達線:W11〜W15、V1
01〜V112、…V501〜V512)に最適な重み
が与えられている。The input switching section 44 is switched to the input signal generation mechanism 52 when learning is performed on the fog detection circuit 48 by the learning mechanism 50, and is switched to the image processing section 12 after the learning process is completed. It has become. The fog detection circuit 48 is formed of, for example, a ramel-heart type forward-looking neural network, and as shown in FIG.
Correlation values X1, X2, X3 of the regions R1, R2, R3 are given as potentials of input neuron values, and 11 output neuron values (Z1 to Z1) are passed through an intermediate neuron group (intermediate layer).
Z11) is output. The eleven output neuron values are respectively assigned to 10% units of transmittance 0 to 100%. In this neural network, a judgment result of a supervisor is given to an input image in advance, and all synapses (signal transmission lines connecting neurons: W11 to W15, V1
01 to V112,..., V501 to V512) are given optimal weights.
【0055】例えば、霧が発生した場合、その状況に割
り当てられた透過率の出力ニューロンの値が1.0に近
くなり、他の出力ニューロンの値は0.0に近くなるよ
うに設定されている。また出力ニューロンの値として
は、透過率の他に視界距離を割り当てることもできる。
すなわち霧検出回路48を、相関値を入力ニューロン値
とし、透過率を出力ニューロン値とした透過率算出手段
を構成し、また相関値を入力ニューロン値とし、視界距
離を出力ニューロン値とした視界距離算出手段として構
成することができる。For example, when fog occurs, the values of the output neurons of the transmittance assigned to the situation are set to be close to 1.0, and the values of the other output neurons are set to be close to 0.0. I have. As the value of the output neuron, a visibility distance can be assigned in addition to the transmittance.
That is, the fog detection circuit 48 constitutes a transmittance calculating means using the correlation value as the input neuron value and the transmittance as the output neuron value, and the view distance using the correlation value as the input neuron value and the view distance as the output neuron value. It can be configured as calculation means.
【0056】霧検出回路62は表示部16とともに判定
情報出力手段を構成し、車両追跡部36の出力、すなわ
ちテールランプL1、L2の画像のうち距離が相異なる
画像を比較して透過率を算出する透過率算出手段を構成
するとともに、テールランプL1、L2の画像のうち距
離が相異なる画像を比較して視界距離を算出する視界距
離算出手段として構成されている。例えば、車両追跡部
36の追跡結果から透過率を求めるときには、テレビカ
メラ10からの距離10メートルにおけるテールランプ
L1、L2の画像が50メートルまで追跡できたときに
は、透過率100%とし、追跡可能距離が50メートル
未満、45メートル以上のときには透過率90%のよう
に透過率を求めることができる。また視界距離について
も、透過率と同様に、追跡可能距離に対応付けて視界距
離を設定することができる。The fog detection circuit 62 constitutes judgment information output means together with the display unit 16, and calculates the transmittance by comparing the output of the vehicle tracking unit 36, that is, the images of the tail lamps L1 and L2 with different distances. Along with constituting the transmittance calculating means, it is configured as a view distance calculating means for calculating a view distance by comparing images having different distances among the images of the tail lamps L1 and L2. For example, when determining the transmittance from the tracking result of the vehicle tracking unit 36, when the images of the tail lamps L1 and L2 at a distance of 10 meters from the television camera 10 can be tracked up to 50 meters, the transmittance is set to 100% and the trackable distance is set to 100%. When the distance is less than 50 meters and 45 meters or more, the transmittance can be obtained as 90%. As for the visibility distance, similarly to the transmittance, the visibility distance can be set in association with the trackable distance.
【0057】次に、図1に示す霧監視システムの作用を
図9および図10に示すフローチャートにしたがって説
明する。Next, the operation of the fog monitoring system shown in FIG. 1 will be described with reference to the flowcharts shown in FIGS.
【0058】まず、画像処理部12の処理として、テレ
ビカメラ10により撮影された撮影対象領域20に関す
る映像信号を順次画像データに変換し、画像メモリ26
に順次格納する(ステップ100)。撮影対象領域20
における画像データが入力されたときに、平均濃度抽出
部38で画像の平均濃度を求め、昼間か否かの判定を行
なう(ステップ101)。昼間と判定されたときには、
入力画像のうち領域R1〜R3の濃淡パターン画像をテ
ンプレート登録部30に登録する(ステップ102)。
このあと霧の発生を判定する周期か否かの判定を行なう
(ステップ103)。霧の発生を監視する周期は数秒と
いった短い周期で行なう必要がないため、ここでの判定
周期は5分、10分といった周期か否かの判定を行な
う。First, as a process of the image processing section 12, a video signal relating to the shooting target area 20 shot by the television camera 10 is sequentially converted into image data, and
(Step 100). Imaging target area 20
When the image data in is input, the average density of the image is obtained by the average density extraction unit 38, and it is determined whether it is daytime or not (step 101). When daytime is determined,
The light and shade pattern images of the regions R1 to R3 in the input image are registered in the template registration unit 30 (step 102).
Thereafter, it is determined whether or not the cycle is for determining generation of fog (step 103). Since it is not necessary to perform the fog monitoring cycle in a short cycle such as several seconds, it is determined whether the determination cycle here is a cycle such as 5 minutes or 10 minutes.
【0059】次にテンプレート登録部30に登録された
各領域R1〜R3の濃淡パターン画像に関する画像デー
タと登録パターン画像P1、P2、P3として記憶され
た画像データを取り込み(ステップ104)、両者のパ
ターンの相関値を(1)式にしたがって算出する(ステ
ップ105)。次にテンプレート登録部30に登録され
た濃淡パターン画像に関する画像データの更新周期で且
つ各領域R1〜R3の相関値が0.90以上が否かの判
定を行なう(ステップ106)。すなわちテンプレート
登録部30に登録された濃淡パターン画像の画像データ
を5分あるいは10分周期で更新するか否かの判定を行
ない、更新周期でないときにはステップ103の処理に
戻り、更新周期のときには、入力した濃淡パターン画像
にしたがってテンプレート登録部30の画像データを更
新する。さらに各領域における相関値が0.90以上の
ときには霧が発生していない状況として、ステップ10
0の処理に戻る。Next, the image data relating to the gray-scale pattern image of each of the regions R1 to R3 registered in the template registration unit 30 and the image data stored as the registered pattern images P1, P2, P3 are fetched (step 104). Is calculated according to equation (1) (step 105). Next, a determination is made as to whether or not the correlation value of each of the regions R1 to R3 is 0.90 or more in the update cycle of the image data relating to the grayscale pattern image registered in the template registration unit 30 (step 106). That is, it is determined whether or not to update the image data of the gray-scale pattern image registered in the template registration unit 30 in a 5-minute or 10-minute cycle. If the update cycle is not reached, the process returns to step 103; The image data of the template registration unit 30 is updated according to the shaded pattern image. Further, when the correlation value in each area is 0.90 or more, it is determined that no fog has occurred, and that the situation
It returns to the process of 0.
【0060】一方、ステップ101で夜間と判定された
ときには、車両登録部34により車両追跡領域40内を
移動する車両のテールランプL1、L2を検出して登録
する(ステップ107)。このあと車両追跡部36の処
理により、テールランプL1、L2の追跡可能距離を求
めステップ100の処理に戻る(ステップ108)。On the other hand, when it is determined in step 101 that it is nighttime, the vehicle registration unit 34 detects and registers the tail lamps L1 and L2 of the vehicle moving in the vehicle tracking area 40 (step 107). Thereafter, by the processing of the vehicle tracking unit 36, the trackable distance of the tail lamps L1 and L2 is determined, and the process returns to the step 100 (step 108).
【0061】画像処理部12の処理により相関値あるい
は車両の追跡可能距離が算出されたあとは霧検出部14
の処理に移る。After the correlation value or the trackable distance of the vehicle is calculated by the processing of the image processing unit 12, the fog detection unit 14
Move on to processing.
【0062】画像処理部12の処理により昼間と判定さ
れたときには(ステップ200)、相関演算部32で演
算された相関値を霧検出回路48にセットする。すなわ
ち領域R1〜R3の相関値X1〜X3を入力ニューロン
値の電位として与え、中間ニューロン群を介して11個
の出力ニューロン値を算出する(ステップ201、20
2)。このとき出力ニューロンZ1〜Z11のうちZ4
の値が1.00でそれ以外の出力ニューロンの値が0.
00であったときには、透過率が70%あるいは視界距
離が50メートルとして求める(ステップ205)。When daytime is determined by the processing of the image processing section 12 (step 200), the correlation value calculated by the correlation calculation section 32 is set in the fog detection circuit 48. That is, the correlation values X1 to X3 of the regions R1 to R3 are given as potentials of the input neuron values, and 11 output neuron values are calculated via the intermediate neuron group (steps 201 and 20).
2). At this time, among the output neurons Z1 to Z11, Z4
Is 1.00 and the values of other output neurons are .0.
If it is 00, the transmittance is determined as 70% or the viewing distance is 50 meters (step 205).
【0063】また出力ニューロンZ7の値が1.00
で、他の出力ニューロンの値が0.00のときには透過
率40%で視界距離20メートルとして求める。そして
算出した透過率あるいは視界距離を基に霧が発生したか
否かの判定を行なう(ステップ206)。例えば、透過
率が70%のときには霧が発生していないと判定し、透
過率が60%以下のときには霧が発生したとして表示部
16の画面上に霧が発生した旨の警報としてアラームに
関する文字などを表示させる(ステップ207)。The value of the output neuron Z7 is 1.00.
When the value of the other output neuron is 0.00, the transmission distance is 40% and the visibility distance is 20 meters. Then, it is determined whether fog has occurred based on the calculated transmittance or visibility distance (step 206). For example, when the transmittance is 70%, it is determined that fog has not occurred. When the transmittance is 60% or less, it is determined that fog has occurred. Is displayed (step 207).
【0064】一方、ステップ200で夜間と判定された
ときには、車両追跡部36の処理による追跡可能距離を
入力し(ステップ203)、入力値を基に霧の発生を判
定するための処理を行ない(ステップ204)、追跡可
能距離に従って透過率または視界距離を算出する(ステ
ップ205)。そして追跡可能距離が、例えば50メー
トルのときには霧が発生していないと判定し(ステップ
206)、追跡可能距離が20メートルのときには霧が
発生したとして表示部16の画面上にアラームを表示さ
せる(ステップ207)。なお、表示部16にアラーム
を表示させる代わりに、アラームを音声で出力させるこ
ともできる。On the other hand, when it is determined in step 200 that it is nighttime, a trackable distance by the processing of the vehicle tracking unit 36 is input (step 203), and processing for determining generation of fog is performed based on the input value (step 203). Step 204), calculating the transmittance or the visibility distance according to the trackable distance (step 205). When the trackable distance is 50 meters, for example, it is determined that fog has not occurred (step 206). When the trackable distance is 20 meters, it is determined that fog has occurred and an alarm is displayed on the screen of the display unit 16 (step 206). Step 207). Note that, instead of displaying the alarm on the display unit 16, the alarm may be output as audio.
【0065】このように本実施の形態においては、昼間
においては、入力画像の濃淡パターン画像を求め、この
濃淡パターン画像とあらかじめ登録された濃淡パターン
画像とを比較して両者の相関値を求め、相関値にしたが
って霧の発生の有無を判定しているため、霧の発生を高
精度に検出することができる。As described above, in the present embodiment, in the daytime, a gray-scale pattern image of an input image is obtained, and this gray-scale pattern image is compared with a previously registered gray-scale pattern image to obtain a correlation value between the two. Since the presence or absence of fog is determined according to the correlation value, the occurrence of fog can be detected with high accuracy.
【0066】また本実施の形態においては、夜間におい
ては、車両追跡領域40内を移動する車両のテールラン
プを登録し、テールランプの追跡可能距離を求め、追跡
可能距離にしたがって霧の発生の有無を判定するように
したため、夜間においても霧の発生を精度良く検出する
ことができる。In the present embodiment, at night, the tail lamp of the vehicle moving in the vehicle tracking area 40 is registered, the trackable distance of the tail lamp is obtained, and the presence or absence of fog is determined according to the trackable distance. Therefore, the occurrence of fog can be detected accurately even at night.
【0067】またテレビカメラ10としては、既設の道
路監視用のテレビカメラを用いることで、システムを構
築するためのコストの低減を図ることができる。By using an existing road monitoring television camera as the television camera 10, the cost for constructing the system can be reduced.
【0068】[0068]
【発明の効果】以上説明したように、本発明によれば、
昼間において、撮影対象領域を撮影して得られた監視対
象に関するパターン画像を生成し、このパターン画像と
基準値を示す登録パターン画像とを比較して両者の相関
値を求め、この相関値に従って霧が発生したか否かを判
定するようにしたため、天候など周囲の環境によらず霧
の発生の有無を高精度に検出することができる。また、
夜間においては、撮影対象領域内を移動する移動体の特
定の部位の画像を追跡し、この画像を遠方の地点まで識
別できるか否かの追跡可能距離を算出し、この算出値に
したがって霧の発生の有無を判定するようにしているた
め、夜間においても天候など周囲の環境によらず霧の発
生の有無を高精度に検出することができる。As described above, according to the present invention,
In the daytime, a pattern image relating to the monitoring target obtained by imaging the imaging target area is generated, and this pattern image is compared with a registered pattern image indicating a reference value to obtain a correlation value between the two. Since it is determined whether or not fog has occurred, the presence or absence of fog can be detected with high accuracy regardless of the surrounding environment such as weather. Also,
At night, the image of a specific part of the moving object that moves within the shooting target area is tracked, and a traceable distance is calculated as to whether or not this image can be identified to a distant point. Since the presence or absence of occurrence is determined, the presence or absence of occurrence of fog can be detected with high accuracy even at night regardless of the surrounding environment such as weather.
【図1】本発明の一実施の形態を示す霧監視システムの
全体構成図である。FIG. 1 is an overall configuration diagram of a fog monitoring system according to an embodiment of the present invention.
【図2】画像処理部のブロック構成図である。FIG. 2 is a block diagram of an image processing unit.
【図3】テンプレート画像の生成方法を説明するための
図である。FIG. 3 is a diagram for explaining a method of generating a template image.
【図4】登録パターンと入力画像による濃淡パターンと
の関係を説明するための図である。FIG. 4 is a diagram for explaining a relationship between a registered pattern and a light and shade pattern based on an input image.
【図5】車両の追跡方法を説明するための図である。FIG. 5 is a diagram for explaining a vehicle tracking method.
【図6】霧検出部のブロック構成図である。FIG. 6 is a block diagram of a fog detection unit.
【図7】霧検出回路のブロック図である。FIG. 7 is a block diagram of a fog detection circuit.
【図8】ニューラルネットワークを用いた霧検出回路の
構成図である。FIG. 8 is a configuration diagram of a fog detection circuit using a neural network.
【図9】画像処理部の作用を説明するためのフローチャ
ートである。FIG. 9 is a flowchart for explaining the operation of the image processing unit.
【図10】霧検出部の作用を説明するためのフローチャ
ートである。FIG. 10 is a flowchart for explaining the operation of the fog detection unit.
10 テレビカメラ 12 画像処理部 14 霧検出部 16 表示部 20 撮影対象領域 22 白線 24 A/D変換器 26 画像メモリ 28 制御部 30 テンプレート登録部 32 相関演算部 34 車両登録部 36 車両追跡部 38 平均濃度抽出部 Reference Signs List 10 TV camera 12 Image processing unit 14 Fog detection unit 16 Display unit 20 Imaging target area 22 White line 24 A / D converter 26 Image memory 28 Control unit 30 Template registration unit 32 Correlation calculation unit 34 Vehicle registration unit 36 Vehicle tracking unit 38 Average Concentration extraction unit
フロントページの続き (72)発明者 北村 忠明 茨城県日立市大みか町七丁目1番1号 株式会社 日立製作所 日立研究所内 (72)発明者 井戸 一成 茨城県日立市大みか町五丁目2番1号 株式会社 日立製作所 大みか工場内 (56)参考文献 特開 平6−308256(JP,A) 特開 平2−95242(JP,A) 特開 平7−140003(JP,A) 特開 平7−26946(JP,A) (58)調査した分野(Int.Cl.7,DB名) G01W 1/00 E01F 9/00 G01N 21/17 G06T 7/00 G08B 21/00 Continued on the front page (72) Inventor Tadaaki Kitamura 7-1-1, Omika-cho, Hitachi City, Ibaraki Prefecture Inside Hitachi Research Laboratory, Hitachi, Ltd. (72) Inventor Issei Well 5-2-1, Omika-cho, Hitachi City, Ibaraki Prefecture (56) References JP-A-6-308256 (JP, A) JP-A-2-95242 (JP, A) JP-A-7-140003 (JP, A) JP-A-7- 26946 (JP, A) (58) Fields investigated (Int. Cl. 7 , DB name) G01W 1/00 E01F 9/00 G01N 21/17 G06T 7/00 G08B 21/00
Claims (13)
を撮影して映像信号を生成する撮影手段と、撮影手段か
らの映像信号を画像データに変換して監視対象の映像を
テンプレート画像として生成するテンプレート画像生成
手段と、監視対象の映像に関するパターン画像として霧
が発生していないときの基準値を示す登録パターン画像
を記憶する登録パターン記憶手段と、テンプレート画像
生成手段の生成によるテンプレート画像と登録パターン
記憶手段に記憶された登録パターンとの相違に関する相
関値を算出する相関値算出手段と、相関値算出手段の算
出値から霧の発生に関する監視情報を出力する監視情報
出力手段とを備え、前記監視情報出力手段は、相関値算
出手段の算出による相関値から監視対象周囲の透過率を
算出する透過率算出手段と、透過率算出手段の算出によ
る透過率が設定値以下のときに監視対象の周囲に霧が発
生した旨の警報を出力する警報出力手段とを有し、前記
透過率算出手段は、ラメルハート型ニューラルネットワ
ークで構成され、相関値を入力ニューロン値とし、透過
率を出力ニューロン値としてなる霧監視システム。1. A photographing means for photographing an object to be monitored placed in an environment where fog is generated to generate a video signal, and converting a video signal from the photographing means into image data to convert a video to be monitored into a template image. Template image generating means, a registered pattern storing means for storing a registered pattern image indicating a reference value when no fog is generated as a pattern image relating to a video to be monitored, and a template image generated by the template image generating means Correlation value calculation means for calculating a correlation value relating to a difference between the correlation pattern and the registered pattern stored in the registration pattern storage means, and monitoring information output means for outputting monitoring information on fog generation from the calculated value of the correlation value calculation means. The monitoring information output means calculates a correlation value
The transmittance around the monitored object is calculated from the correlation value
The transmittance calculating means to be calculated and the transmittance calculating means
Fog around the monitored object when the transmittance is below the set value
Alarm output means for outputting an alarm indicating the occurrence of
The transmittance calculating means is a ramel-heart type neural network.
The correlation value is used as the input neuron value, and the transmission
A fog monitoring system that uses the rate as the output neuron value .
を撮影して映像信号を生成する撮影手段と、撮影手段か
らの映像信号を画像データに変換して監視対象の映像を
濃淡に応じたテンプレート画像として生成するテンプレ
ート画像生成手段と、監視対象の映像に関する濃淡パタ
ーン画像として霧が発生していないときの基準値を示す
登録パターン画像を記憶する登録パターン記憶手段と、
テンプレート画像生成手段の生成によるテンプレート画
像と登録パターン記憶手段に記憶された登録パターン画
像との相違に関する相関値を算出する相関値算出手段
と、相関値算出手段の算出値から霧の発生に関する監視
情報を出力する監視情報出力手段とを備え、前記監視情
報出力手段は、相関値算出手段の算出による相関値から
監視対象周囲の透過率を算出する透過率算出手段と、透
過率算出手段の算出による透過率が設定値以下のときに
監視対象の周囲に霧が発生した旨の警報を出力する警報
出力手段とを有し、前記透過率算出手段は、ラメルハー
ト型ニューラルネットワークで構成され、相関値を入力
ニューロン値とし、透過率を出力ニューロン値としてな
る霧監視システム。2. A photographing means for photographing an object to be monitored placed in an environment where fog is generated to generate a video signal, and converting a video signal from the photographing means into image data to make the image of the monitored object dark and light. Template image generating means for generating a corresponding template image, registered pattern storage means for storing a registered pattern image indicating a reference value when fog is not generated as a light and shade pattern image relating to a video to be monitored,
Correlation value calculation means for calculating a correlation value relating to a difference between the template image generated by the template image generation means and the registered pattern image stored in the registered pattern storage means, and monitoring information on fog generation from the calculated value of the correlation value calculation means Monitoring information output means for outputting the monitoring information,
The report output means uses the correlation value calculated by the correlation value calculation means.
A transmittance calculating means for calculating the transmittance around the monitoring target;
When the transmittance calculated by the excess rate calculation means is below the set value
An alarm that outputs an alarm that fog has occurred around the monitoring target
Output means, and the transmittance calculating means includes
And a correlation value input.
Neuron value, and transmittance as output neuron value.
Fog monitoring system that.
を撮影して映像信号を生成する撮影手段と、撮影手段か
らの映像信号を画像データに変換して監視対象の映像を
テンプレート画像として生成するテンプレート画像生成
手段と、監視対象の映像に関するパターン画像として霧
が発生していないときの基準値を示す登録パターン画像
を記憶する登録パターン記憶手段と、テンプレート画像
生成手段の生成によるテンプレート画像と登録パターン
記憶手段に記憶された登録パターンとの相違に関する相
関値を算出する相関値算出手段と、相関値算出手段の算
出値から霧の発生に関する監視情報を出力する監視情報
出力手段とを備え、前記監視情報出力手段は、相関値算
出手段の算出による相関値から監視対象周囲の視界距離
を算出する視界距離算出手段と、視界距離算出手段の算
出による視界距離が設定値以下のときに監視対象の周囲
に霧が発生した旨の警報を出力する警報出力手段とを有
し、前記視界距離算出手段は、ラメルハート型ニューラ
ルネットワークで構成され、相関値を入力ニューロン値
とし、視界距離を出力ニューロン値としてなる霧監視シ
ステム。3. An object to be monitored placed in an environment where fog is generated.
Shooting means for shooting an image to generate a video signal, and whether the shooting means
These video signals are converted into image data and the video to be monitored is
Template image generation to generate as template image
Means and fog as a pattern image related to the video to be monitored
Registered pattern image showing the reference value when no error occurs
Registration pattern storage means for storing a template image
Template image and registration pattern generated by generation means
Phase related to the difference from the registered pattern stored in the storage means
Correlation value calculating means for calculating the correlation value, and calculation of the correlation value calculating means
Monitoring information that outputs monitoring information about fog generation from the output value
Output means, wherein the monitoring information output means is configured to calculate a correlation value.
The visibility distance around the monitoring target from the correlation value calculated by the output means
Of the view distance calculating means for calculating
Around the monitoring target when the visibility distance is shorter than the set value
Alarm output means for outputting an alarm indicating that fog has occurred.
The visibility distance calculating means includes a Ramelheart-type neural
Input neuron values
And a fog monitoring system that uses the viewing distance as the output neuron value .
を撮影して映像信号を生成する撮影手段と、撮影手段か
らの映像信号を画像データに変換して監視対象の映像を
濃淡に応じたテンプレート画像として生成するテンプレ
ート画像生成手段と、監視対象の映像に関する濃淡パタ
ーン画像として霧が発生していないときの基準値を示す
登録パターン画像を記憶する登録パターン記憶手段と、
テンプレート画像生成手段の生成によるテンプレート画
像と登録パターン記憶手段に記憶された登録パターン画
像との相違に関する相関値を算出する相関値算出手段
と、相関値算出手段の算出値から霧の発生に関する監視
情報を出力する監視情報出力手段とを備え、前記監視情
報出力手段は、相関値算出手段の算出による相関値から
監視対象周囲の視界距離を算出する視界距離算出手段
と、視界距離算出手段の算出による視界距離が設定値以
下のときに監視対象の周囲に霧が発生した旨の警報を出
力する警報出力手段とを有し、前記視界距離算出手段
は、ラメルハート型ニューラルネットワークで構成さ
れ、相関値を入力ニューロン値とし、視界距離を出力ニ
ューロン値としてなる霧監視システム。4. An object to be monitored placed in an environment where fog is generated.
Shooting means for shooting an image to generate a video signal, and whether the shooting means
These video signals are converted into image data and the video to be monitored is
A template generated as a template image according to shading
Image generation means and shading pattern relating to the video to be monitored
Indicates the reference value when no fog is generated
Registration pattern storage means for storing a registration pattern image;
Template image generated by template image generation means
Image and the registered pattern image stored in the registered pattern storage means.
Correlation value calculation means for calculating a correlation value relating to a difference from an image
And monitoring of fog generation from the value calculated by the correlation value calculation means.
Monitoring information output means for outputting information;
The report output means uses the correlation value calculated by the correlation value calculation means.
View distance calculating means for calculating the view distance around the monitoring target
And the view distance calculated by the view distance calculating means is equal to or less than the set value.
When below, a warning that fog has occurred around the monitoring target is issued.
Warning distance output means, and the view distance calculation means.
Consists of a ramel-heart type neural network
The correlation value is used as the input neuron value, and the viewing distance is used as the output neuron value.
A fog monitoring system that serves as a Duron value .
を撮影して映像信号 を生成する撮影手段と、撮影手段か
らの映像信号を画像データに変換して監視対象の映像を
テンプレート画像として生成するテンプレート画像生成
手段と、監視対象の映像に関するパターン画像として霧
が発生していないときの基準値を示す登録パターン画像
を記憶する登録パターン記憶手段と、テンプレート画像
生成手段の生成によるテンプレート画像と登録パターン
記憶手段に記憶された登録パターンとの相違に関する相
関値を算出する相関値算出手段と、相関値算出手段の算
出値から霧の発生に関する監視情報を出力する監視情報
出力手段と、撮影手段の撮影による映像信号を画像デー
タに変換して画像の平均濃度を算出する平均濃度算出手
段と、平均濃度算出手段の算出により平均濃度から昼夜
を判別する昼夜判別手段とを備え、前記監視情報出力手
段は、昼夜判別手段により薄暮を含む昼間であると判定
されたことを条件に情報を出力してなる霧監視システ
ム。5. An object to be monitored placed in an environment where fog is generated.
Shooting means for shooting an image to generate a video signal, and whether the shooting means
These video signals are converted into image data and the video to be monitored is
Template image generation to generate as template image
Means and fog as a pattern image related to the video to be monitored
Registered pattern image showing the reference value when no error occurs
Registration pattern storage means for storing a template image
Template image and registration pattern generated by generation means
Phase related to the difference from the registered pattern stored in the storage means
Correlation value calculating means for calculating the correlation value, and calculation of the correlation value calculating means
Monitoring information that outputs monitoring information about fog generation from the output value
The output means and the video signal obtained by the photographing means
Average density calculator that calculates the average density of the image
And the average density calculated from the average density by day and night
Day and night discriminating means for discriminating between the monitoring information output means.
The stage is judged to be daytime including dusk by day / night discriminating means.
A fog monitoring system that outputs information on the condition that it has been performed .
を撮影して映像信号を生成する撮影手段と、撮影手段か
らの映像信号を画像データに変換して監視対象の映像を
濃淡に応じたテンプレート画像として生成するテンプレ
ート画像生成手段と、監視対象の映像に関する濃淡パタ
ーン画像として霧が発生していないときの基準値を示す
登録パターン画像を記憶する登録パターン記憶手段と、
テンプレート画像生成手段の生成によるテンプレート画
像と登録パターン記憶手段に記憶された登録パターン画
像との相違に関する相関値を算出する相関値算出手段
と、相関値算出手段の算出値から霧の発生に関する監視
情報を出力する監視情報出力手段と、撮影手段の撮影に
よる映像信号を画像データに変換して画像の平均濃度を
算出する平均濃度算出手段と、平均濃度算出手段の算出
により平均濃度から昼夜を判別する昼夜判別手段とを備
え、前記監視情報出力手段は、昼夜判別手段により薄暮
を含む昼間であると判定されたことを条件に情報を出力
してなる霧監視システム。6. An object to be monitored placed in an environment where fog is generated
Shooting means for shooting an image to generate a video signal, and whether the shooting means
These video signals are converted into image data and the video to be monitored is
A template generated as a template image according to shading
Image generation means and shading pattern relating to the video to be monitored
Indicates the reference value when no fog is generated
Registration pattern storage means for storing a registration pattern image;
Template image generated by template image generation means
Image and the registered pattern image stored in the registered pattern storage means.
Correlation value calculation means for calculating a correlation value relating to a difference from an image
And monitoring of fog generation from the value calculated by the correlation value calculation means.
Monitoring information output means for outputting information, and
Video signal into image data and average image density
Average density calculating means to calculate, and calculation of average density calculating means
Day and night discrimination means for discriminating day and night from the average density
The monitoring information output means is provided with
Information is output on condition that it is determined that it is daytime including
Fog monitoring system made by.
数個に設定され、登録パターン記憶手段には各監視対象
に対応した登録パターン画像が記憶されており、相関値
算出手段は各監視対象に関する相関値を算出してなり、
監視情報出力手段は各監視対象に関する相関値から監視
情報を出力してなる請求項1〜6のうちいずれか1項に
記載の霧監視システム。7. A plurality of monitoring targets to be photographed by the photographing means are set, a registration pattern image corresponding to each monitoring target is stored in the registration pattern storage means, and a correlation value calculating means relates to each monitoring target. Calculate the correlation value,
The fog monitoring system according to any one of claims 1 to 6, wherein the monitoring information output means outputs monitoring information from a correlation value for each monitoring target.
テンプレート画像から登録パターン画像を生成する登録
パターン画像生成手段と、登録パターン画像生成手段の
生成による登録パターン画像に従って登録パターン記憶
手段の登録パターン画像を指定の周期で更新する更新手
段とを備えている請求項1〜7のうちいずれか1項に記
載の霧監視システム。8. A registered pattern image generating means for generating a registered pattern image from a template image generated by the template image generating means, and specifying a registered pattern image in the registered pattern storing means in accordance with the registered pattern image generated by the registered pattern image generating means. The fog monitoring system according to any one of claims 1 to 7, further comprising updating means for updating the fog in a cycle of (i) .
移動する移動体を撮影して映像信号を生成する撮影手段
と、撮影手段からの映像信号を画像データに変換して移
動体の特定の部位の画像を移動体の移動に合わせて順次
生成する画像処理手段と、画像処理手段により生成され
た画像のうち撮影手段からの距離が相異なる画像を比較
して遠方における移動体の特定の部位を識別できるか否
かを判定する判定手段と、判定手段の判定結果に従って
霧の発生に関する判定情報を出力する判定情報出力手段
とを備えている霧監視システム。9. A photographing means for photographing a moving object moving in a photographing target area in an environment in which fog is generated to generate a video signal, and converting a video signal from the photographing means into image data to generate a video signal. An image processing means for sequentially generating an image of a specific part in accordance with the movement of the moving object; and an image generated by the image processing means, comparing images having different distances from the photographing means to specify a moving object in a distant place. A fog monitoring system comprising: a determination unit that determines whether or not the part can be identified; and a determination information output unit that outputs determination information regarding fog generation according to a determination result of the determination unit.
より生成された画像のうち撮影手段からの距離が相異な
る画像を比較して透過率を算出する透過率算出手段と、
透過率算出手段の算出による透過率が設定値以下のとき
に遠方における移動体の特定の部位を識別できないとし
て警報を発生する警報発生手段とを備えている請求項9
記載の霧監視システム。10. A transmissivity calculating means for comparing transmissive images at different distances from the photographing means among the images generated by the image processing means to calculate transmissivity;
Claim and a warning generating means for transmittance by calculation of the transmittance calculating means for generating an alarm as unable to identify the specific site of the mobile in the distance when the set value or less 9
Fog monitoring system as described.
より生成された画像のうち撮影手段からの距離が相異な
る画像を比較して視界距離を算出する視界距離算出手段
と、視界距離算出手段の算出による視界距離が設定値以
下のときに遠方における移動体の特定の部位を識別でき
ないとして警報を発生する警報発生手段とを備えている
請求項9記載の霧監視システム。11. A visual distance calculating means for comparing visual distances by comparing images having different distances from a photographing means among images generated by the image processing means, and a visual distance calculating means. The fog monitoring system according to claim 9 , further comprising: an alarm generating unit configured to generate an alarm when the calculated view distance is equal to or less than a set value and that a specific part of the distant moving body cannot be identified.
の画像として移動体の照明部材の照明による画像を生成
してなる請求項9、10または11記載の霧監視システ
ム。12. The fog monitoring system according to claim 9 , wherein the image processing means generates an image obtained by illuminating a lighting member of the moving body as an image of a specific portion of the moving body.
データに変換して画像の平均濃度を算出する平均濃度算
出手段と、平均濃度算出手段の算出により平均濃度から
昼夜を判別する昼夜判別手段とを備え、判定情報出力手
段は、昼夜判別手段により夜間であると判定されたこと
を条件に情報を出力してなる請求項9 、10、11また
は12記載の霧監視システム。13. An average density calculating means for converting an image signal obtained by shooting of an image capturing means into image data and calculating an average density of an image, and a day / night determining means for determining day and night from the average density by calculating the average density calculating means. the provided, determination information output means, according to claim 9, on condition that it is determined to be nighttime by day and night determining means comprising output information, 10,11 also
Is a fog monitoring system according to item 12 .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP14907396A JP3232502B2 (en) | 1996-06-11 | 1996-06-11 | Fog monitoring system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP14907396A JP3232502B2 (en) | 1996-06-11 | 1996-06-11 | Fog monitoring system |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH09329671A JPH09329671A (en) | 1997-12-22 |
JP3232502B2 true JP3232502B2 (en) | 2001-11-26 |
Family
ID=15467108
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP14907396A Expired - Fee Related JP3232502B2 (en) | 1996-06-11 | 1996-06-11 | Fog monitoring system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3232502B2 (en) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001236593A (en) * | 2000-02-24 | 2001-08-31 | Hitachi Ltd | Traffic signal control device |
JP2007276704A (en) * | 2006-04-10 | 2007-10-25 | Denso Corp | Lighting control system |
US7693629B2 (en) | 2006-11-14 | 2010-04-06 | Denso Corporation | Onboard fog determining apparatus |
DE102006055145B4 (en) * | 2006-11-22 | 2008-12-11 | Denso Corp., Kariya-shi | Onboard fog determining apparatus |
KR100946749B1 (en) * | 2008-03-19 | 2010-03-11 | 정양권 | Fog Detection Method and System Based on Image Recognition and Image Learning Method |
FR2965354B1 (en) * | 2010-09-28 | 2012-10-12 | France Etat Ponts Chaussees | METHOD AND DEVICE FOR DETECTING FOG, NIGHT |
JP5659913B2 (en) * | 2011-03-30 | 2015-01-28 | 富士通株式会社 | Alarm device, alarm system, and alarm method |
KR101242741B1 (en) * | 2011-11-21 | 2013-03-18 | 한국세라믹기술원 | Air quality monitoring device and method for monitoring air quality using the device |
JP6655983B2 (en) * | 2015-12-22 | 2020-03-04 | 京セラ株式会社 | Detection system, detection method, and vehicle |
US11325520B2 (en) * | 2017-09-27 | 2022-05-10 | Sony Corporation | Information processing apparatus and information processing method, and control apparatus and image processing apparatus |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0295242A (en) * | 1988-09-30 | 1990-04-06 | Kyocera Corp | fog detection device |
JPH06308256A (en) * | 1993-04-26 | 1994-11-04 | Hitachi Cable Ltd | Cloudy fog detecting method |
JPH0726946A (en) * | 1993-07-12 | 1995-01-27 | Mazda Motor Corp | Secondary air supplying device for engine with supercharger |
JPH07140003A (en) * | 1993-11-16 | 1995-06-02 | Matsushita Electric Ind Co Ltd | Visibility measuring device |
-
1996
- 1996-06-11 JP JP14907396A patent/JP3232502B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH09329671A (en) | 1997-12-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8045761B2 (en) | Detection of environmental conditions in a sequence of images | |
US8254628B2 (en) | Image processing device for detecting and suppressing shadows, method, and computer program | |
KR102404149B1 (en) | Driver assistance system and method for object detection and notification | |
JP5747549B2 (en) | Signal detector and program | |
US6546115B1 (en) | Method of updating reference background image, method of detecting entering objects and system for detecting entering objects using the methods | |
CN112001208B (en) | Target detection method and device for vehicle blind area and electronic equipment | |
JP3232502B2 (en) | Fog monitoring system | |
JP2020030750A (en) | Shadow detection device, shadow detection method, shadow detection program, learning device, leaning method, and learning program | |
CN108280444A (en) | A kind of fast motion object detection method based on vehicle panoramic view | |
CN109916415B (en) | Road type determination method, device, equipment and storage medium | |
JP7092616B2 (en) | Object detection device, object detection method, and object detection program | |
JP2010015469A (en) | Still area detection method, and apparatus, program and recording medium therefor | |
EP2447912B1 (en) | Method and device for the detection of change in illumination for vision systems | |
JP3570198B2 (en) | Image processing method and apparatus | |
JP3995671B2 (en) | Image processing device | |
JPH0973541A (en) | Object detection device and object detection method | |
JP2010136207A (en) | System for detecting and displaying pedestrian | |
JP3294468B2 (en) | Object detection method in video monitoring device | |
JPH10289321A (en) | Image monitoring device | |
CN111860050B (en) | Loop detection method and device based on image frames and vehicle-mounted terminal | |
JP2002027449A (en) | Moving object identification method and moving object identification device | |
CN117437808A (en) | A method for over-the-horizon sensing and early warning in blind spots in underground parking lots | |
JP3736836B2 (en) | Object detection method, object detection apparatus, and program | |
JP7476016B2 (en) | Visibility assessment device, visibility assessment system, and visibility assessment method | |
JP7194534B2 (en) | Object detection device, image processing device, object detection method, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20070921 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080921 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080921 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090921 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090921 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100921 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100921 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110921 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120921 Year of fee payment: 11 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120921 Year of fee payment: 11 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130921 Year of fee payment: 12 |
|
LAPS | Cancellation because of no payment of annual fees |